hexsha
string
size
int64
ext
string
lang
string
max_stars_repo_path
string
max_stars_repo_name
string
max_stars_repo_head_hexsha
string
max_stars_repo_licenses
list
max_stars_count
int64
max_stars_repo_stars_event_min_datetime
string
max_stars_repo_stars_event_max_datetime
string
max_issues_repo_path
string
max_issues_repo_name
string
max_issues_repo_head_hexsha
string
max_issues_repo_licenses
list
max_issues_count
int64
max_issues_repo_issues_event_min_datetime
string
max_issues_repo_issues_event_max_datetime
string
max_forks_repo_path
string
max_forks_repo_name
string
max_forks_repo_head_hexsha
string
max_forks_repo_licenses
list
max_forks_count
int64
max_forks_repo_forks_event_min_datetime
string
max_forks_repo_forks_event_max_datetime
string
content
string
avg_line_length
float64
max_line_length
int64
alphanum_fraction
float64
qsc_code_num_words_quality_signal
int64
qsc_code_num_chars_quality_signal
float64
qsc_code_mean_word_length_quality_signal
float64
qsc_code_frac_words_unique_quality_signal
float64
qsc_code_frac_chars_top_2grams_quality_signal
float64
qsc_code_frac_chars_top_3grams_quality_signal
float64
qsc_code_frac_chars_top_4grams_quality_signal
float64
qsc_code_frac_chars_dupe_5grams_quality_signal
float64
qsc_code_frac_chars_dupe_6grams_quality_signal
float64
qsc_code_frac_chars_dupe_7grams_quality_signal
float64
qsc_code_frac_chars_dupe_8grams_quality_signal
float64
qsc_code_frac_chars_dupe_9grams_quality_signal
float64
qsc_code_frac_chars_dupe_10grams_quality_signal
float64
qsc_code_frac_chars_replacement_symbols_quality_signal
float64
qsc_code_frac_chars_digital_quality_signal
float64
qsc_code_frac_chars_whitespace_quality_signal
float64
qsc_code_size_file_byte_quality_signal
float64
qsc_code_num_lines_quality_signal
float64
qsc_code_num_chars_line_max_quality_signal
float64
qsc_code_num_chars_line_mean_quality_signal
float64
qsc_code_frac_chars_alphabet_quality_signal
float64
qsc_code_frac_chars_comments_quality_signal
float64
qsc_code_cate_xml_start_quality_signal
float64
qsc_code_frac_lines_dupe_lines_quality_signal
float64
qsc_code_cate_autogen_quality_signal
float64
qsc_code_frac_lines_long_string_quality_signal
float64
qsc_code_frac_chars_string_length_quality_signal
float64
qsc_code_frac_chars_long_word_length_quality_signal
float64
qsc_code_frac_lines_string_concat_quality_signal
float64
qsc_code_cate_encoded_data_quality_signal
float64
qsc_code_frac_chars_hex_words_quality_signal
float64
qsc_code_frac_lines_prompt_comments_quality_signal
float64
qsc_code_frac_lines_assert_quality_signal
float64
qsc_codepython_cate_ast_quality_signal
float64
qsc_codepython_frac_lines_func_ratio_quality_signal
float64
qsc_codepython_cate_var_zero_quality_signal
bool
qsc_codepython_frac_lines_pass_quality_signal
float64
qsc_codepython_frac_lines_import_quality_signal
float64
qsc_codepython_frac_lines_simplefunc_quality_signal
float64
qsc_codepython_score_lines_no_logic_quality_signal
float64
qsc_codepython_frac_lines_print_quality_signal
float64
qsc_code_num_words
int64
qsc_code_num_chars
int64
qsc_code_mean_word_length
int64
qsc_code_frac_words_unique
null
qsc_code_frac_chars_top_2grams
int64
qsc_code_frac_chars_top_3grams
int64
qsc_code_frac_chars_top_4grams
int64
qsc_code_frac_chars_dupe_5grams
int64
qsc_code_frac_chars_dupe_6grams
int64
qsc_code_frac_chars_dupe_7grams
int64
qsc_code_frac_chars_dupe_8grams
int64
qsc_code_frac_chars_dupe_9grams
int64
qsc_code_frac_chars_dupe_10grams
int64
qsc_code_frac_chars_replacement_symbols
int64
qsc_code_frac_chars_digital
int64
qsc_code_frac_chars_whitespace
int64
qsc_code_size_file_byte
int64
qsc_code_num_lines
int64
qsc_code_num_chars_line_max
int64
qsc_code_num_chars_line_mean
int64
qsc_code_frac_chars_alphabet
int64
qsc_code_frac_chars_comments
int64
qsc_code_cate_xml_start
int64
qsc_code_frac_lines_dupe_lines
int64
qsc_code_cate_autogen
int64
qsc_code_frac_lines_long_string
int64
qsc_code_frac_chars_string_length
int64
qsc_code_frac_chars_long_word_length
int64
qsc_code_frac_lines_string_concat
null
qsc_code_cate_encoded_data
int64
qsc_code_frac_chars_hex_words
int64
qsc_code_frac_lines_prompt_comments
int64
qsc_code_frac_lines_assert
int64
qsc_codepython_cate_ast
int64
qsc_codepython_frac_lines_func_ratio
int64
qsc_codepython_cate_var_zero
int64
qsc_codepython_frac_lines_pass
int64
qsc_codepython_frac_lines_import
int64
qsc_codepython_frac_lines_simplefunc
int64
qsc_codepython_score_lines_no_logic
int64
qsc_codepython_frac_lines_print
int64
effective
string
hits
int64
21a76a35389ed389d1dde90b646d18b2512252f2
42,619
py
Python
models/stan_dlm_models.py
justinalsing/dlmmc
37cb38e09d71ec3160b89b748b187fd276266596
[ "MIT" ]
18
2019-01-02T17:02:46.000Z
2021-11-06T04:36:05.000Z
models/stan_dlm_models.py
justinalsing/dlm
37cb38e09d71ec3160b89b748b187fd276266596
[ "MIT" ]
6
2019-01-23T13:18:30.000Z
2019-05-06T07:19:50.000Z
models/stan_dlm_models.py
justinalsing/dlm
37cb38e09d71ec3160b89b748b187fd276266596
[ "MIT" ]
2
2019-01-15T07:32:53.000Z
2019-01-30T00:32:57.000Z
dlm_vanilla_ar1 = """ data { int N; // number of time steps int nreg; // number of regressors real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2 vector[N] time_series; // n-composites vectors of N-time-steps -- the data vector[N] stddev; // corresponding std deviation for each data point vector[nreg] regressors[N]; // nreg regressors of N-time-steps real<lower=0> sigma_trend_prior; real<lower=0> sigma_seas_prior; real<lower=0> sigma_AR_prior; real<lower=0> S; } transformed data { // Re-scaled data real data_mean = mean(time_series); real data_range = max(time_series) - min(time_series); vector[N] d = (time_series - data_mean)/data_range; vector[N] s = stddev/data_range; // Set value of nx int nx = nreg+7; // Declare F-vector (observation projection vector) vector[nx] F[N+1]; // Initialize for(t in 1:N+1){ F[t] = rep_vector(0, nx); } // First time point F[1][1] = 1; F[1][2] = 0; F[1][3] = 1; F[1][4] = 0; F[1][5] = 1; F[1][6] = 0; for(i in 1:nreg){ F[1][6+i] = 0; } F[1][6+nreg+1] = 1; // Loop over next time points for(t in 2:N+1){ F[t][1] = 1; F[t][2] = 0; F[t][3] = 1; F[t][4] = 0; F[t][5] = 1; F[t][6] = 0; for(i in 1:nreg){ F[t][6+i] = regressors[t-1][i]; } F[t][6+nreg+1] = 1; } } parameters { real<lower=0> sigma_trend; real<lower=0> sigma_seas; real<lower=0> sigma_AR; real<lower=0, upper=1> rhoAR1; } transformed parameters{ // Declare intermediate Kalman objects vector[nx] x_hat[N+1]; vector[nx] x_bar[N+1]; matrix[nx,nx] C_hat[N+1]; vector[N+1] C_y; vector[nx] K[N+1]; matrix[nx,nx] C_bar[N+1]; vector[N+1] v; // Declare state-space model matrices matrix[nx, nx] G; // G-matrix (state transition matrix) matrix[nx, nx] W; // W-matrix (state covariance) matrix[nx, nx] C; // C-matrix (observation covariance) // Initialize state-space matrices G = rep_matrix(0, nx, nx); W = rep_matrix(0, nx, nx); C = rep_matrix(0, nx, nx); // Initialize Kalman filter stuff C_y = rep_vector(0, N+1); v = rep_vector(0, N+1); for(t in 1:N+1){ x_hat[t] = rep_vector(0, nx); x_bar[t] = rep_vector(0, nx); K[t] = rep_vector(0, nx); C_bar[t] = rep_matrix(0, nx, nx); C_hat[t] = rep_matrix(0, nx, nx); } // Assign the G matrix // Trend part G[1,1] = 1; G[1,2] = 1; G[2,1] = 0; G[2,2] = 1; // 12-month seasonal part G[3,3] = cos(sampling*2*pi()/12); G[3,4] = sin(sampling*2*pi()/12); G[4,3] = -sin(sampling*2*pi()/12); G[4,4] = cos(sampling*2*pi()/12); // 6-month seasonal part G[5,5] = cos(sampling*2*pi()/6); G[5,6] = sin(sampling*2*pi()/6); G[6,5] = -sin(sampling*2*pi()/6); G[6,6] = cos(sampling*2*pi()/6); // Regressor part for(i in 1:nreg){ G[6+i,6+i] = 1; } // AR process part G[6+nreg+1,6+nreg+1] = rhoAR1; // Assign W matrix W[1,1] = 1e-10; W[2,2] = sigma_trend^2; W[3,3] = sigma_seas^2; W[4,4] = sigma_seas^2; W[5,5] = sigma_seas^2; W[6,6] = sigma_seas^2; for(i in 1:nreg){ W[6+i,6+i] = 1e-10; } W[nx,nx] = sigma_AR^2; // Assign C matrix // Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes) for(i in 1:(nx-1)){ C[i,i] = S; } // Prior (stationary) covariance of the AR1 process C[nx,nx] = sigma_AR^2/(1-rhoAR1^2); // Kalman filtering // Initialize C_bar C_bar[1] = C; // Do the forward filtering for(t in 2:N+1){ x_hat[t] = G*x_bar[t-1]; C_hat[t] = G*(C_bar[t-1]*G') + W; C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2; K[t] = (C_hat[t]*F[t])/C_y[t]; v[t] = d[t-1] - F[t]'*x_hat[t]; x_bar[t] = x_hat[t] + K[t]*v[t]; C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t]; } } model { // Priors on hyper parameters sigma_trend ~ normal(0, sigma_trend_prior); sigma_seas ~ normal(0, sigma_seas_prior); sigma_AR ~ normal(0, sigma_AR_prior); rhoAR1 ~ uniform(0, 1); // Construct target density for(t in 2:N+1){ target += normal_lpdf(v[t] | 0, sqrt(C_y[t])); } } generated quantities { // Declare Kalman smoother quantities vector[N] trend; vector[N] slope; vector[N] seasonal; vector[4] seasonal_components[N]; vector[N] ar; vector[nreg] beta; vector[nx] x[N]; vector[nx] x_realization[N+1]; vector[nx] x_ubar[N+1]; vector[nx] x_realization_hat[N+1]; vector[N+1] y_realization; vector[N+1] v_realization; vector[nx] r[N+2]; vector[nx] r_realization[N+2]; matrix[nx,nx] L[N+2]; matrix[nx,nx] M[N+2]; matrix[nx,nx] C_twidle[N+1]; vector[nx] x_twidle[N+1]; vector[nx] x_realization_twidle[N+1]; // Initialize matrix quantities and end points of Kalman smoothing vectors for(t in 1:N+1){ L[t] = rep_matrix(0, nx, nx); M[t] = rep_matrix(0, nx, nx); C_twidle[t] = rep_matrix(0, nx, nx); } L[N+2] = rep_matrix(0, nx, nx); M[N+2] = rep_matrix(0, nx, nx); r[N+2] = rep_vector(0, nx); r_realization[N+2] = rep_vector(0, nx); // Generate a draw from the state-space equations x_realization[1] = multi_normal_rng(rep_vector(0, nx), C); y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]); for(t in 2:N+1){ x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W); y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]); } // Generate Kalman filter of realization; x_realization_hat x_ubar[1] = rep_vector(0, nx); for(t in 2:N+1){ x_realization_hat[t] = G*x_ubar[t-1]; v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t]; x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t]; } // Generate Kalman smoother of realization and of data for(t in 1:N+1){ L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]'); r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1]; r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1]; M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]); x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t]; x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t]; C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]); } for(t in 1:N){ x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1]; trend[t] = x[t][1]*data_range + data_mean; slope[t] = x[t][2]*data_range; seasonal[t] = (x[t][3] + x[t][5])*data_range; seasonal_components[t][1] = x[t][3]*data_range; seasonal_components[t][2] = x[t][4]*data_range; seasonal_components[t][3] = x[t][5]*data_range; seasonal_components[t][4] = x[t][6]*data_range; ar[t] = x[t][nx]*data_range; } for(i in 1:nreg){ beta[i] = x[1][6+i]*data_range; } } """ dlm_vanilla_ar2 = """ data { int N; // number of time steps int nreg; // number of regressors real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2 vector[N] time_series; // n-composites vectors of N-time-steps -- the data vector[N] stddev; // corresponding std deviation for each data point vector[nreg] regressors[N]; // nreg regressors of N-time-steps real<lower=0> sigma_trend_prior; real<lower=0> sigma_seas_prior; real<lower=0> sigma_AR_prior; real<lower=0> S; } transformed data { // Re-scaled data real data_mean = mean(time_series); real data_range = max(time_series) - min(time_series); vector[N] d = (time_series - data_mean)/data_range; vector[N] s = stddev/data_range; // Set value of nx int nx = nreg+8; // Declare F-vector (observation projection vector) vector[nx] F[N+1]; // Initialize for(t in 1:N+1){ F[t] = rep_vector(0, nx); } // First time point F[1][1] = 1; F[1][2] = 0; F[1][3] = 1; F[1][4] = 0; F[1][5] = 1; F[1][6] = 0; for(i in 1:nreg){ F[1][6+i] = 0; } F[1][6+nreg+1] = 1; // Loop over next time points for(t in 2:N+1){ F[t][1] = 1; F[t][2] = 0; F[t][3] = 1; F[t][4] = 0; F[t][5] = 1; F[t][6] = 0; for(i in 1:nreg){ F[t][6+i] = regressors[t-1][i]; } F[t][6+nreg+1] = 1; } } parameters { real<lower=0> sigma_trend; real<lower=0> sigma_seas; real<lower=0> sigma_AR; real<lower=0, upper=0.5> rhoAR1; real<lower=0, upper=1.0> rhoAR2; } transformed parameters{ // Declare intermediate Kalman objects vector[nx] x_hat[N+1]; vector[nx] x_bar[N+1]; matrix[nx,nx] C_hat[N+1]; vector[N+1] C_y; vector[nx] K[N+1]; matrix[nx,nx] C_bar[N+1]; vector[N+1] v; // Declare state-space model matrices matrix[nx, nx] G; // G-matrix (state transition matrix) matrix[nx, nx] W; // W-matrix (state covariance) matrix[nx, nx] C; // C-matrix (observation covariance) // Initialize state-space matrices G = rep_matrix(0, nx, nx); W = rep_matrix(0, nx, nx); C = rep_matrix(0, nx, nx); // Initialize Kalman filter stuff C_y = rep_vector(0, N+1); v = rep_vector(0, N+1); for(t in 1:N+1){ x_hat[t] = rep_vector(0, nx); x_bar[t] = rep_vector(0, nx); K[t] = rep_vector(0, nx); C_bar[t] = rep_matrix(0, nx, nx); C_hat[t] = rep_matrix(0, nx, nx); } // Assign the G matrix // Trend part G[1,1] = 1; G[1,2] = 1; G[2,1] = 0; G[2,2] = 1; // 12-month seasonal part G[3,3] = cos(sampling*2*pi()/12); G[3,4] = sin(sampling*2*pi()/12); G[4,3] = -sin(sampling*2*pi()/12); G[4,4] = cos(sampling*2*pi()/12); // 6-month seasonal part G[5,5] = cos(sampling*2*pi()/6); G[5,6] = sin(sampling*2*pi()/6); G[6,5] = -sin(sampling*2*pi()/6); G[6,6] = cos(sampling*2*pi()/6); // Regressor part for(i in 1:nreg){ G[6+i,6+i] = 1; } // AR process part G[6+nreg+1,6+nreg+1] = rhoAR1; G[6+nreg+1,6+nreg+2] = rhoAR2; G[6+nreg+2, 6+nreg+1] = 1; // Assign W matrix W[1,1] = 1e-10; W[2,2] = sigma_trend^2; W[3,3] = sigma_seas^2; W[4,4] = sigma_seas^2; W[5,5] = sigma_seas^2; W[6,6] = sigma_seas^2; for(i in 1:nreg){ W[6+i,6+i] = 1e-20; } W[nx-1,nx-1] = sigma_AR^2; W[nx,nx] = 1e-20; // Assign C matrix // Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes) for(i in 1:nx){ C[i,i] = S; } // Prior (stationary) covariance of the AR1 process C[nx, nx] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2)); C[nx-1, nx-1] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2)); C[nx, nx-1] = C[nx, nx]*rhoAR1/(1-rhoAR2); C[nx-1, nx] = C[nx, nx]*rhoAR1/(1-rhoAR2); // Kalman filtering // Initialize C_bar C_bar[1] = C; // Do the forward filtering for(t in 2:N+1){ x_hat[t] = G*x_bar[t-1]; C_hat[t] = G*(C_bar[t-1]*G') + W; C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2; K[t] = (C_hat[t]*F[t])/C_y[t]; v[t] = d[t-1] - F[t]'*x_hat[t]; x_bar[t] = x_hat[t] + K[t]*v[t]; C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t]; } } model { // Priors on hyper parameters sigma_trend ~ normal(0, sigma_trend_prior); sigma_seas ~ normal(0, sigma_seas_prior); sigma_AR ~ normal(0, sigma_AR_prior); rhoAR1 ~ uniform(0, 0.5); rhoAR2 ~ uniform(0, 1-rhoAR1); // Construct target density for(t in 2:N+1){ target += normal_lpdf(v[t] | 0, sqrt(C_y[t])); } } generated quantities { // Declare Kalman smoother quantities vector[N] trend; vector[N] slope; vector[N] seasonal; vector[N] ar; vector[nreg] beta; vector[nx] x[N]; vector[nx] x_realization[N+1]; vector[nx] x_ubar[N+1]; vector[nx] x_realization_hat[N+1]; vector[N+1] y_realization; vector[N+1] v_realization; vector[nx] r[N+2]; vector[nx] r_realization[N+2]; matrix[nx,nx] L[N+2]; matrix[nx,nx] M[N+2]; matrix[nx,nx] C_twidle[N+1]; vector[nx] x_twidle[N+1]; vector[nx] x_realization_twidle[N+1]; // Initialize matrix quantities and end points of Kalman smoothing vectors for(t in 1:N+1){ L[t] = rep_matrix(0, nx, nx); M[t] = rep_matrix(0, nx, nx); C_twidle[t] = rep_matrix(0, nx, nx); } L[N+2] = rep_matrix(0, nx, nx); M[N+2] = rep_matrix(0, nx, nx); r[N+2] = rep_vector(0, nx); r_realization[N+2] = rep_vector(0, nx); // Generate a draw from the state-space equations x_realization[1] = multi_normal_rng(rep_vector(0, nx), C); y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]); for(t in 2:N+1){ x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W); y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]); } // Generate Kalman filter of realization; x_realization_hat x_ubar[1] = rep_vector(0, nx); for(t in 2:N+1){ x_realization_hat[t] = G*x_ubar[t-1]; v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t]; x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t]; } // Generate Kalman smoother of realization and of data for(t in 1:N+1){ L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]'); r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1]; r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1]; M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]); x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t]; x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t]; C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]); } for(t in 1:N){ x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1]; trend[t] = x[t][1]*data_range + data_mean; slope[t] = x[t][2]*data_range; seasonal[t] = (x[t][3] + x[t][5])*data_range; ar[t] = x[t][nx]*data_range; } for(i in 1:nreg){ beta[i] = x[1][6+i]*data_range; } } """ dlm_dynregs_ar1 = """ data { int N; // number of time steps int nreg; // number of regressors real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2 vector[N] time_series; // n-composites vectors of N-time-steps -- the data vector[N] stddev; // corresponding std deviation for each data point vector[nreg] regressors[N]; // nreg regressors of N-time-steps real<lower=0> sigma_trend_prior; real<lower=0> sigma_seas_prior; real<lower=0> sigma_AR_prior; vector[nreg] sigma_reg_prior; real<lower=0> S; } transformed data { // Re-scaled data real data_mean = mean(time_series); real data_range = max(time_series) - min(time_series); vector[N] d = (time_series - data_mean)/data_range; vector[N] s = stddev/data_range; // Set value of nx int nx = nreg+7; // Declare F-vector (observation projection vector) vector[nx] F[N+1]; // Initialize for(t in 1:N+1){ F[t] = rep_vector(0, nx); } // First time point F[1][1] = 1; F[1][2] = 0; F[1][3] = 1; F[1][4] = 0; F[1][5] = 1; F[1][6] = 0; for(i in 1:nreg){ F[1][6+i] = 0; } F[1][6+nreg+1] = 1; // Loop over next time points for(t in 2:N+1){ F[t][1] = 1; F[t][2] = 0; F[t][3] = 1; F[t][4] = 0; F[t][5] = 1; F[t][6] = 0; for(i in 1:nreg){ F[t][6+i] = regressors[t-1][i]; } F[t][6+nreg+1] = 1; } } parameters { real<lower=0> sigma_trend; real<lower=0> sigma_seas; real<lower=0> sigma_AR; real<lower=0, upper=1> rhoAR1; vector<lower=0>[nreg] sigma_reg; } transformed parameters{ // Declare intermediate Kalman objects vector[nx] x_hat[N+1]; vector[nx] x_bar[N+1]; matrix[nx,nx] C_hat[N+1]; vector[N+1] C_y; vector[nx] K[N+1]; matrix[nx,nx] C_bar[N+1]; vector[N+1] v; // Declare state-space model matrices matrix[nx, nx] G; // G-matrix (state transition matrix) matrix[nx, nx] W; // W-matrix (state covariance) matrix[nx, nx] C; // C-matrix (observation covariance) // Initialize state-space matrices G = rep_matrix(0, nx, nx); W = rep_matrix(0, nx, nx); C = rep_matrix(0, nx, nx); // Initialize Kalman filter stuff C_y = rep_vector(0, N+1); v = rep_vector(0, N+1); for(t in 1:N+1){ x_hat[t] = rep_vector(0, nx); x_bar[t] = rep_vector(0, nx); K[t] = rep_vector(0, nx); C_bar[t] = rep_matrix(0, nx, nx); C_hat[t] = rep_matrix(0, nx, nx); } // Assign the G matrix // Trend part G[1,1] = 1; G[1,2] = 1; G[2,1] = 0; G[2,2] = 1; // 12-month seasonal part G[3,3] = cos(sampling*2*pi()/12); G[3,4] = sin(sampling*2*pi()/12); G[4,3] = -sin(sampling*2*pi()/12); G[4,4] = cos(sampling*2*pi()/12); // 6-month seasonal part G[5,5] = cos(sampling*2*pi()/6); G[5,6] = sin(sampling*2*pi()/6); G[6,5] = -sin(sampling*2*pi()/6); G[6,6] = cos(sampling*2*pi()/6); // Regressor part for(i in 1:nreg){ G[6+i,6+i] = 1; } // AR process part G[6+nreg+1,6+nreg+1] = rhoAR1; // Assign W matrix W[1,1] = 1e-10; W[2,2] = sigma_trend^2; W[3,3] = sigma_seas^2; W[4,4] = sigma_seas^2; W[5,5] = sigma_seas^2; W[6,6] = sigma_seas^2; for(i in 1:nreg){ W[6+i,6+i] = sigma_reg[i]^2; } W[nx,nx] = sigma_AR^2; // Assign C matrix // Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes) for(i in 1:(nx-1)){ C[i,i] = S; } // Prior (stationary) covariance of the AR1 process C[nx,nx] = sigma_AR^2/(1-rhoAR1^2); // Kalman filtering // Initialize C_bar C_bar[1] = C; // Do the forward filtering for(t in 2:N+1){ x_hat[t] = G*x_bar[t-1]; C_hat[t] = G*(C_bar[t-1]*G') + W; C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2; K[t] = (C_hat[t]*F[t])/C_y[t]; v[t] = d[t-1] - F[t]'*x_hat[t]; x_bar[t] = x_hat[t] + K[t]*v[t]; C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t]; } } model { // Priors on hyper parameters sigma_trend ~ normal(0, sigma_trend_prior); sigma_seas ~ normal(0, sigma_seas_prior); sigma_AR ~ normal(0, sigma_AR_prior); rhoAR1 ~ uniform(0, 1); for(i in 1:nreg){ sigma_reg[i] ~ normal(0, sigma_reg_prior[i]); } // Construct target density for(t in 2:N+1){ target += normal_lpdf(v[t] | 0, sqrt(C_y[t])); } } generated quantities { // Declare Kalman smoother quantities vector[N] trend; vector[N] slope; vector[N] seasonal; vector[4] seasonal_components[N]; vector[N] ar; vector[nreg] beta[N]; vector[nx] x[N]; vector[nx] x_realization[N+1]; vector[nx] x_ubar[N+1]; vector[nx] x_realization_hat[N+1]; vector[N+1] y_realization; vector[N+1] v_realization; vector[nx] r[N+2]; vector[nx] r_realization[N+2]; matrix[nx,nx] L[N+2]; matrix[nx,nx] M[N+2]; matrix[nx,nx] C_twidle[N+1]; vector[nx] x_twidle[N+1]; vector[nx] x_realization_twidle[N+1]; // Initialize matrix quantities and end points of Kalman smoothing vectors for(t in 1:N+1){ L[t] = rep_matrix(0, nx, nx); M[t] = rep_matrix(0, nx, nx); C_twidle[t] = rep_matrix(0, nx, nx); } L[N+2] = rep_matrix(0, nx, nx); M[N+2] = rep_matrix(0, nx, nx); r[N+2] = rep_vector(0, nx); r_realization[N+2] = rep_vector(0, nx); // Generate a draw from the state-space equations x_realization[1] = multi_normal_rng(rep_vector(0, nx), C); y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]); for(t in 2:N+1){ x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W); y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]); } // Generate Kalman filter of realization; x_realization_hat x_ubar[1] = rep_vector(0, nx); for(t in 2:N+1){ x_realization_hat[t] = G*x_ubar[t-1]; v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t]; x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t]; } // Generate Kalman smoother of realization and of data for(t in 1:N+1){ L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]'); r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1]; r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1]; M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]); x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t]; x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t]; C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]); } for(t in 1:N){ x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1]; trend[t] = x[t][1]*data_range + data_mean; slope[t] = x[t][2]*data_range; seasonal[t] = (x[t][3] + x[t][5])*data_range; seasonal_components[t][1] = x[t][3]*data_range; seasonal_components[t][2] = x[t][4]*data_range; seasonal_components[t][3] = x[t][5]*data_range; seasonal_components[t][4] = x[t][6]*data_range; ar[t] = x[t][nx]*data_range; } for(i in 1:nreg){ for(t in 1:N){ beta[t][i] = x[t][6+i]*data_range; } } } """ dlm_noregs_ar1 = """ data { int N; // number of time steps real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2 vector[N] time_series; // n-composites vectors of N-time-steps -- the data vector[N] stddev; // corresponding std deviation for each data point real<lower=0> sigma_trend_prior; real<lower=0> sigma_seas_prior; real<lower=0> sigma_AR_prior; real<lower=0> S; } transformed data { // Re-scaled data real data_mean = mean(time_series); real data_range = max(time_series) - min(time_series); vector[N] d = (time_series - data_mean)/data_range; vector[N] s = stddev/data_range; // Set value of nx int nx = 7; // Declare F-vector (observation projection vector) vector[nx] F[N+1]; // Initialize for(t in 1:N+1){ F[t] = rep_vector(0, nx); } // First time point F[1][1] = 1; F[1][2] = 0; F[1][3] = 1; F[1][4] = 0; F[1][5] = 1; F[1][6] = 0; F[1][7] = 1; // Loop over next time points for(t in 2:N+1){ F[t][1] = 1; F[t][2] = 0; F[t][3] = 1; F[t][4] = 0; F[t][5] = 1; F[t][6] = 0; F[t][7] = 1; } } parameters { real<lower=0> sigma_trend; real<lower=0> sigma_seas; real<lower=0> sigma_AR; real<lower=0, upper=1> rhoAR1; } transformed parameters{ // Declare intermediate Kalman objects vector[nx] x_hat[N+1]; vector[nx] x_bar[N+1]; matrix[nx,nx] C_hat[N+1]; vector[N+1] C_y; vector[nx] K[N+1]; matrix[nx,nx] C_bar[N+1]; vector[N+1] v; // Declare state-space model matrices matrix[nx, nx] G; // G-matrix (state transition matrix) matrix[nx, nx] W; // W-matrix (state covariance) matrix[nx, nx] C; // C-matrix (observation covariance) // Initialize state-space matrices G = rep_matrix(0, nx, nx); W = rep_matrix(0, nx, nx); C = rep_matrix(0, nx, nx); // Initialize Kalman filter stuff C_y = rep_vector(0, N+1); v = rep_vector(0, N+1); for(t in 1:N+1){ x_hat[t] = rep_vector(0, nx); x_bar[t] = rep_vector(0, nx); K[t] = rep_vector(0, nx); C_bar[t] = rep_matrix(0, nx, nx); C_hat[t] = rep_matrix(0, nx, nx); } // Assign the G matrix // Trend part G[1,1] = 1; G[1,2] = 1; G[2,1] = 0; G[2,2] = 1; // 12-month seasonal part G[3,3] = cos(sampling*2*pi()/12); G[3,4] = sin(sampling*2*pi()/12); G[4,3] = -sin(sampling*2*pi()/12); G[4,4] = cos(sampling*2*pi()/12); // 6-month seasonal part G[5,5] = cos(sampling*2*pi()/6); G[5,6] = sin(sampling*2*pi()/6); G[6,5] = -sin(sampling*2*pi()/6); G[6,6] = cos(sampling*2*pi()/6); // AR process part G[7,7] = rhoAR1; // Assign W matrix W[1,1] = 1e-10; W[2,2] = sigma_trend^2; W[3,3] = sigma_seas^2; W[4,4] = sigma_seas^2; W[5,5] = sigma_seas^2; W[6,6] = sigma_seas^2; W[7,7] = sigma_AR^2; // Assign C matrix // Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes) for(i in 1:(nx-1)){ C[i,i] = S; } // Prior (stationary) covariance of the AR1 process C[nx,nx] = sigma_AR^2/(1-rhoAR1^2); // Kalman filtering // Initialize C_bar C_bar[1] = C; // Do the forward filtering for(t in 2:N+1){ x_hat[t] = G*x_bar[t-1]; C_hat[t] = G*(C_bar[t-1]*G') + W; C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2; K[t] = (C_hat[t]*F[t])/C_y[t]; v[t] = d[t-1] - F[t]'*x_hat[t]; x_bar[t] = x_hat[t] + K[t]*v[t]; C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t]; } } model { // Priors on hyper parameters sigma_trend ~ normal(0, sigma_trend_prior); sigma_seas ~ normal(0, sigma_seas_prior); sigma_AR ~ normal(0, sigma_AR_prior); rhoAR1 ~ uniform(0, 1); // Construct target density for(t in 2:N+1){ target += normal_lpdf(v[t] | 0, sqrt(C_y[t])); } } generated quantities { // Declare Kalman smoother quantities vector[N] trend; vector[N] slope; vector[N] seasonal; vector[4] seasonal_components[N]; vector[N] ar; vector[nx] x[N]; vector[nx] x_realization[N+1]; vector[nx] x_ubar[N+1]; vector[nx] x_realization_hat[N+1]; vector[N+1] y_realization; vector[N+1] v_realization; vector[nx] r[N+2]; vector[nx] r_realization[N+2]; matrix[nx,nx] L[N+2]; matrix[nx,nx] M[N+2]; matrix[nx,nx] C_twidle[N+1]; vector[nx] x_twidle[N+1]; vector[nx] x_realization_twidle[N+1]; // Initialize matrix quantities and end points of Kalman smoothing vectors for(t in 1:N+1){ L[t] = rep_matrix(0, nx, nx); M[t] = rep_matrix(0, nx, nx); C_twidle[t] = rep_matrix(0, nx, nx); } L[N+2] = rep_matrix(0, nx, nx); M[N+2] = rep_matrix(0, nx, nx); r[N+2] = rep_vector(0, nx); r_realization[N+2] = rep_vector(0, nx); // Generate a draw from the state-space equations x_realization[1] = multi_normal_rng(rep_vector(0, nx), C); y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]); for(t in 2:N+1){ x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W); y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]); } // Generate Kalman filter of realization; x_realization_hat x_ubar[1] = rep_vector(0, nx); for(t in 2:N+1){ x_realization_hat[t] = G*x_ubar[t-1]; v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t]; x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t]; } // Generate Kalman smoother of realization and of data for(t in 1:N+1){ L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]'); r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1]; r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1]; M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]); x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t]; x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t]; C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]); } for(t in 1:N){ x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1]; trend[t] = x[t][1]*data_range + data_mean; slope[t] = x[t][2]*data_range; seasonal[t] = (x[t][3] + x[t][5])*data_range; seasonal_components[t][1] = x[t][3]*data_range; seasonal_components[t][2] = x[t][4]*data_range; seasonal_components[t][3] = x[t][5]*data_range; seasonal_components[t][4] = x[t][6]*data_range; ar[t] = x[t][nx]*data_range; } } """ dlm_vanilla_ar1_noseasonal = """ data { int N; // number of time steps int nreg; // number of regressors real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2 vector[N] time_series; // n-composites vectors of N-time-steps -- the data vector[N] stddev; // corresponding std deviation for each data point vector[nreg] regressors[N]; // nreg regressors of N-time-steps real<lower=0> sigma_trend_prior; real<lower=0> sigma_AR_prior; real<lower=0> S; } transformed data { // Re-scaled data real data_mean = mean(time_series); real data_range = max(time_series) - min(time_series); vector[N] d = (time_series - data_mean)/data_range; vector[N] s = stddev/data_range; // Set value of nx int nx = nreg+3; // Declare F-vector (observation projection vector) vector[nx] F[N+1]; // Initialize for(t in 1:N+1){ F[t] = rep_vector(0, nx); } // First time point F[1][1] = 1; F[1][2] = 0; for(i in 1:nreg){ F[1][2+i] = 0; } F[1][2+nreg+1] = 1; // Loop over next time points for(t in 2:N+1){ F[t][1] = 1; F[t][2] = 0; for(i in 1:nreg){ F[t][2+i] = regressors[t-1][i]; } F[t][2+nreg+1] = 1; } } parameters { real<lower=0> sigma_trend; real<lower=0> sigma_AR; real<lower=0, upper=1> rhoAR1; } transformed parameters{ // Declare intermediate Kalman objects vector[nx] x_hat[N+1]; vector[nx] x_bar[N+1]; matrix[nx,nx] C_hat[N+1]; vector[N+1] C_y; vector[nx] K[N+1]; matrix[nx,nx] C_bar[N+1]; vector[N+1] v; // Declare state-space model matrices matrix[nx, nx] G; // G-matrix (state transition matrix) matrix[nx, nx] W; // W-matrix (state covariance) matrix[nx, nx] C; // C-matrix (observation covariance) // Initialize state-space matrices G = rep_matrix(0, nx, nx); W = rep_matrix(0, nx, nx); C = rep_matrix(0, nx, nx); // Initialize Kalman filter stuff C_y = rep_vector(0, N+1); v = rep_vector(0, N+1); for(t in 1:N+1){ x_hat[t] = rep_vector(0, nx); x_bar[t] = rep_vector(0, nx); K[t] = rep_vector(0, nx); C_bar[t] = rep_matrix(0, nx, nx); C_hat[t] = rep_matrix(0, nx, nx); } // Assign the G matrix // Trend part G[1,1] = 1; G[1,2] = 1; G[2,1] = 0; G[2,2] = 1; // Regressor part for(i in 1:nreg){ G[2+i,2+i] = 1; } // AR process part G[nx,nx] = rhoAR1; // Assign W matrix W[1,1] = 1e-10; W[2,2] = sigma_trend^2; for(i in 1:nreg){ W[2+i,2+i] = 1e-10; } W[nx,nx] = sigma_AR^2; // Assign C matrix // Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes) for(i in 1:(nx-1)){ C[i,i] = S; } // Prior (stationary) covariance of the AR1 process C[nx,nx] = sigma_AR^2/(1-rhoAR1^2); // Kalman filtering // Initialize C_bar C_bar[1] = C; // Do the forward filtering for(t in 2:N+1){ x_hat[t] = G*x_bar[t-1]; C_hat[t] = G*(C_bar[t-1]*G') + W; C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2; K[t] = (C_hat[t]*F[t])/C_y[t]; v[t] = d[t-1] - F[t]'*x_hat[t]; x_bar[t] = x_hat[t] + K[t]*v[t]; C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t]; } } model { // Priors on hyper parameters sigma_trend ~ normal(0, sigma_trend_prior); sigma_AR ~ normal(0, sigma_AR_prior); rhoAR1 ~ uniform(0, 1); // Construct target density for(t in 2:N+1){ target += normal_lpdf(v[t] | 0, sqrt(C_y[t])); } } generated quantities { // Declare Kalman smoother quantities vector[N] trend; vector[N] slope; vector[N] ar; vector[nreg] beta; vector[nx] x[N]; vector[nx] x_realization[N+1]; vector[nx] x_ubar[N+1]; vector[nx] x_realization_hat[N+1]; vector[N+1] y_realization; vector[N+1] v_realization; vector[nx] r[N+2]; vector[nx] r_realization[N+2]; matrix[nx,nx] L[N+2]; matrix[nx,nx] M[N+2]; matrix[nx,nx] C_twidle[N+1]; vector[nx] x_twidle[N+1]; vector[nx] x_realization_twidle[N+1]; // Initialize matrix quantities and end points of Kalman smoothing vectors for(t in 1:N+1){ L[t] = rep_matrix(0, nx, nx); M[t] = rep_matrix(0, nx, nx); C_twidle[t] = rep_matrix(0, nx, nx); } L[N+2] = rep_matrix(0, nx, nx); M[N+2] = rep_matrix(0, nx, nx); r[N+2] = rep_vector(0, nx); r_realization[N+2] = rep_vector(0, nx); // Generate a draw from the state-space equations x_realization[1] = multi_normal_rng(rep_vector(0, nx), C); y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]); for(t in 2:N+1){ x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W); y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]); } // Generate Kalman filter of realization; x_realization_hat x_ubar[1] = rep_vector(0, nx); for(t in 2:N+1){ x_realization_hat[t] = G*x_ubar[t-1]; v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t]; x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t]; } // Generate Kalman smoother of realization and of data for(t in 1:N+1){ L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]'); r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1]; r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1]; M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]); x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t]; x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t]; C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]); } for(t in 1:N){ x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1]; trend[t] = x[t][1]*data_range + data_mean; slope[t] = x[t][2]*data_range; ar[t] = x[t][nx]*data_range; } for(i in 1:nreg){ beta[i] = x[1][2+i]*data_range; } } """ dlm_vanilla_ar2_noseasonal = """ data { int N; // number of time steps int nreg; // number of regressors real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2 vector[N] time_series; // n-composites vectors of N-time-steps -- the data vector[N] stddev; // corresponding std deviation for each data point vector[nreg] regressors[N]; // nreg regressors of N-time-steps real<lower=0> sigma_trend_prior; real<lower=0> sigma_AR_prior; real<lower=0> S; } transformed data { // Re-scaled data real data_mean = mean(time_series); real data_range = max(time_series) - min(time_series); vector[N] d = (time_series - data_mean)/data_range; vector[N] s = stddev/data_range; // Set value of nx int nx = nreg+4; // Declare F-vector (observation projection vector) vector[nx] F[N+1]; // Initialize for(t in 1:N+1){ F[t] = rep_vector(0, nx); } // First time point F[1][1] = 1; F[1][2] = 0; for(i in 1:nreg){ F[1][2+i] = 0; } F[1][2+nreg+1] = 1; // Loop over next time points for(t in 2:N+1){ F[t][1] = 1; F[t][2] = 0; for(i in 1:nreg){ F[t][2+i] = regressors[t-1][i]; } F[t][2+nreg+1] = 1; } } parameters { real<lower=0> sigma_trend; real<lower=0> sigma_AR; real<lower=0, upper=0.5> rhoAR1; real<lower=0, upper=1.0> rhoAR2; } transformed parameters{ // Declare intermediate Kalman objects vector[nx] x_hat[N+1]; vector[nx] x_bar[N+1]; matrix[nx,nx] C_hat[N+1]; vector[N+1] C_y; vector[nx] K[N+1]; matrix[nx,nx] C_bar[N+1]; vector[N+1] v; // Declare state-space model matrices matrix[nx, nx] G; // G-matrix (state transition matrix) matrix[nx, nx] W; // W-matrix (state covariance) matrix[nx, nx] C; // C-matrix (observation covariance) // Initialize state-space matrices G = rep_matrix(0, nx, nx); W = rep_matrix(0, nx, nx); C = rep_matrix(0, nx, nx); // Initialize Kalman filter stuff C_y = rep_vector(0, N+1); v = rep_vector(0, N+1); for(t in 1:N+1){ x_hat[t] = rep_vector(0, nx); x_bar[t] = rep_vector(0, nx); K[t] = rep_vector(0, nx); C_bar[t] = rep_matrix(0, nx, nx); C_hat[t] = rep_matrix(0, nx, nx); } // Assign the G matrix // Trend part G[1,1] = 1; G[1,2] = 1; G[2,1] = 0; G[2,2] = 1; // Regressor part for(i in 1:nreg){ G[2+i,2+i] = 1; } // AR process part G[2+nreg+1,2+nreg+1] = rhoAR1; G[2+nreg+1,2+nreg+2] = rhoAR2; G[2+nreg+2,2+nreg+1] = 1; // Assign W matrix W[1,1] = 1e-10; W[2,2] = sigma_trend^2; for(i in 1:nreg){ W[2+i,2+i] = 1e-20; } W[nx-1,nx-1] = sigma_AR^2; W[nx,nx] = 1e-20; // Assign C matrix // Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes) for(i in 1:nx){ C[i,i] = S; } // Prior (stationary) covariance of the AR1 process C[nx, nx] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2)); C[nx-1, nx-1] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2)); C[nx, nx-1] = C[nx, nx]*rhoAR1/(1-rhoAR2); C[nx-1, nx] = C[nx, nx]*rhoAR1/(1-rhoAR2); // Kalman filtering // Initialize C_bar C_bar[1] = C; // Do the forward filtering for(t in 2:N+1){ x_hat[t] = G*x_bar[t-1]; C_hat[t] = G*(C_bar[t-1]*G') + W; C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2; K[t] = (C_hat[t]*F[t])/C_y[t]; v[t] = d[t-1] - F[t]'*x_hat[t]; x_bar[t] = x_hat[t] + K[t]*v[t]; C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t]; } } model { // Priors on hyper parameters sigma_trend ~ normal(0, sigma_trend_prior); sigma_AR ~ normal(0, sigma_AR_prior); rhoAR1 ~ uniform(0, 0.5); rhoAR2 ~ uniform(0, 1-rhoAR1); // Construct target density for(t in 2:N+1){ target += normal_lpdf(v[t] | 0, sqrt(C_y[t])); } } generated quantities { // Declare Kalman smoother quantities vector[N] trend; vector[N] slope; vector[N] ar; vector[nreg] beta; vector[nx] x[N]; vector[nx] x_realization[N+1]; vector[nx] x_ubar[N+1]; vector[nx] x_realization_hat[N+1]; vector[N+1] y_realization; vector[N+1] v_realization; vector[nx] r[N+2]; vector[nx] r_realization[N+2]; matrix[nx,nx] L[N+2]; matrix[nx,nx] M[N+2]; matrix[nx,nx] C_twidle[N+1]; vector[nx] x_twidle[N+1]; vector[nx] x_realization_twidle[N+1]; // Initialize matrix quantities and end points of Kalman smoothing vectors for(t in 1:N+1){ L[t] = rep_matrix(0, nx, nx); M[t] = rep_matrix(0, nx, nx); C_twidle[t] = rep_matrix(0, nx, nx); } L[N+2] = rep_matrix(0, nx, nx); M[N+2] = rep_matrix(0, nx, nx); r[N+2] = rep_vector(0, nx); r_realization[N+2] = rep_vector(0, nx); // Generate a draw from the state-space equations x_realization[1] = multi_normal_rng(rep_vector(0, nx), C); y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]); for(t in 2:N+1){ x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W); y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]); } // Generate Kalman filter of realization; x_realization_hat x_ubar[1] = rep_vector(0, nx); for(t in 2:N+1){ x_realization_hat[t] = G*x_ubar[t-1]; v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t]; x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t]; } // Generate Kalman smoother of realization and of data for(t in 1:N+1){ L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]'); r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1]; r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1]; M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]); x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t]; x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t]; C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]); } for(t in 1:N){ x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1]; trend[t] = x[t][1]*data_range + data_mean; slope[t] = x[t][2]*data_range; ar[t] = x[t][nx]*data_range; } for(i in 1:nreg){ beta[i] = x[1][2+i]*data_range; } } """
28.374834
107
0.543068
7,799
42,619
2.846519
0.019618
0.023243
0.028378
0.032432
0.991171
0.989685
0.987072
0.987072
0.985811
0.985811
0
0.054798
0.265234
42,619
1,501
108
28.393738
0.654127
0
0
0.87391
0
0.071372
0.995777
0.129778
0
0
0
0
0
1
0
false
0
0
0
0
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
21d04024650544ba6b899b4bf5b9192f36e4c70c
7,678
py
Python
hw1/encoder.py
ReiZhao/Machine-Learning-Test
6afbd4f0cb8b6c897d31164df56f267e3b6e96dd
[ "Apache-2.0" ]
null
null
null
hw1/encoder.py
ReiZhao/Machine-Learning-Test
6afbd4f0cb8b6c897d31164df56f267e3b6e96dd
[ "Apache-2.0" ]
null
null
null
hw1/encoder.py
ReiZhao/Machine-Learning-Test
6afbd4f0cb8b6c897d31164df56f267e3b6e96dd
[ "Apache-2.0" ]
null
null
null
# encoder.py import torch star16 = torch.Tensor( [[1,1,0,0,0,0,0,0], [0,1,1,0,0,0,0,0], [0,0,1,1,0,0,0,0], [0,0,0,1,1,0,0,0], [0,0,0,0,1,1,0,0], [0,0,0,0,0,1,1,0], [0,0,0,0,0,0,1,1], [1,0,0,0,0,0,0,1], [1,1,0,0,0,0,0,1], [1,1,1,0,0,0,0,0], [0,1,1,1,0,0,0,0], [0,0,1,1,1,0,0,0], [0,0,0,1,1,1,0,0], [0,0,0,0,1,1,1,0], [0,0,0,0,0,1,1,1], [1,0,0,0,0,0,1,1]]) # REPLACE heart18 WITH AN 18-by-14 TENSOR # TO REPRODUCE IMAGE SHOWN IN SPEC heart18 = torch.Tensor([[0,0,0,0,0,0,0,0,0,0,0,0,0,0], [0,0,0,0,0,0,1,1,1,1,1,1,1,1], [0,0,0,0,0,1,0,0,1,1,1,1,1,1], [0,0,0,0,0,1,0,0,0,1,1,1,1,1], [0,0,0,0,0,1,0,0,0,0,0,1,1,1], [0,0,0,0,0,1,0,0,0,0,0,0,1,1], [0,0,0,0,1,1,0,1,1,1,1,1,1,1], [0,0,0,0,1,1,0,0,0,0,1,1,1,1], [0,0,0,0,1,1,0,0,0,0,0,0,0,1], [0,0,0,1,1,1,0,1,1,1,1,1,1,1], [0,0,0,1,1,1,0,0,0,0,0,0,0,1], [0,0,1,1,1,1,0,0,1,1,1,1,1,1], [0,0,1,1,1,1,0,0,0,0,0,0,1,1], [0,1,1,1,1,1,0,0,0,1,1,1,1,1], [0,1,1,1,1,1,0,0,0,0,0,1,1,1], [1,1,1,1,1,1,1,1,1,1,1,1,1,1], [1,1,1,1,1,1,0,0,0,0,1,1,1,1], [1,1,1,1,1,1,0,0,0,0,0,0,0,0]]) # REPLACE target1 WITH DATA TO PRODUCE # A NEW IMAGE OF YOUR OWN CREATION # Mario target1 = torch.tensor([[0,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1], [0,0,0,0,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1], [1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,0,0,0,0,0,0,0,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,0,0,0,0,0,0,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,0,0,0,0,0,0,0,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,0,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,0,0,0,0,0,0,0,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,0,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,0,0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0], [1,1,1,1,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,1,1,1,1,1,1,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0], [1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0], [1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0], [1,1,1,1,1,1,1,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0], [1,1,1,1,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0], [1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0], [1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0], [1,1,1,1,1,1,1,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0]]) # REPLACE target2 WITH DATA TO PRODUCE # A NEW IMAGE OF YOUR OWN CREATION # clover target2 = torch.Tensor([[0,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1], [0,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1], [1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,0,0,0,0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0], [1,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0], [1,1,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,1,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 1, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0], [1,1,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,1,1,1,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 0, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 1, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0], [1,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,1,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,1,1,1,1,1,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0], [1,1,1,1,1,1,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0], [1,1,1,1,1,1,1,1,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0], [1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0]])
61.424
86
0.291352
2,020
7,678
1.107426
0.016337
0.78945
0.96692
1.026375
0.930264
0.930264
0.930264
0.930264
0.930264
0.930264
0
0.444345
0.420813
7,678
124
87
61.919355
0.058691
0.030737
0
0
0
0
0
0
0
0
0
0
0
1
0
false
0
0.009091
0
0.009091
0
0
0
1
null
1
1
1
1
1
1
1
1
1
0
1
0
0
0
0
0
1
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
12
21e2f68c483f6ce41def48d2f6c17ccd7afcb111
49
py
Python
train/__init__.py
massquantity/DNN-implementation
bca336749a2076fa2873f57d9c2b6f98ebf18a0d
[ "MIT" ]
null
null
null
train/__init__.py
massquantity/DNN-implementation
bca336749a2076fa2873f57d9c2b6f98ebf18a0d
[ "MIT" ]
null
null
null
train/__init__.py
massquantity/DNN-implementation
bca336749a2076fa2873f57d9c2b6f98ebf18a0d
[ "MIT" ]
null
null
null
from .train import train_DNN, train_DNN_minibatch
49
49
0.877551
8
49
5
0.625
0.4
0
0
0
0
0
0
0
0
0
0
0.081633
49
1
49
49
0.888889
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
1
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
df3dd3e6fea196845e8a2694ffa01a918c5e5769
198
py
Python
pybayes/tests/__init__.py
strohel/PyBayes
76d3ad12c20e29c5aadb688c4323fb0f1784f8ec
[ "MIT" ]
66
2015-01-05T13:36:03.000Z
2021-03-15T18:26:28.000Z
pybayes/tests/__init__.py
strohel/PyBayes
76d3ad12c20e29c5aadb688c4323fb0f1784f8ec
[ "MIT" ]
6
2015-02-23T19:45:11.000Z
2021-07-21T08:21:52.000Z
pybayes/tests/__init__.py
strohel/PyBayes
76d3ad12c20e29c5aadb688c4323fb0f1784f8ec
[ "MIT" ]
22
2015-02-11T23:45:01.000Z
2021-01-16T18:53:25.000Z
"""PyBayes' tests""" from pybayes.tests.test_filters import * from pybayes.tests.test_wrappers_linalg import * from pybayes.tests.test_wrappers_numpy import * from pybayes.tests.test_pdfs import *
28.285714
48
0.808081
28
198
5.5
0.357143
0.38961
0.415584
0.519481
0.61039
0.441558
0
0
0
0
0
0
0.09596
198
6
49
33
0.860335
0.070707
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
8
df91e0e6be4c12de4631a4d2a130c4cee7e2a62e
21,503
py
Python
tests/milvus_python_test/entity/test_list_id_in_segment.py
JinHai-CN/milvus
b9ae5983776aef497ef91e994a3a9ae120a98868
[ "Apache-2.0" ]
4
2020-07-29T02:59:53.000Z
2021-11-16T11:07:51.000Z
tests/milvus_python_test/entity/test_list_id_in_segment.py
Franceshe/milvus
7e7f626b9c7288c1c82f5dafed87d33897f4b64e
[ "Apache-2.0" ]
null
null
null
tests/milvus_python_test/entity/test_list_id_in_segment.py
Franceshe/milvus
7e7f626b9c7288c1c82f5dafed87d33897f4b64e
[ "Apache-2.0" ]
2
2021-03-15T11:47:38.000Z
2021-03-15T12:27:16.000Z
import time import random import pdb import threading import logging from multiprocessing import Pool, Process import pytest from milvus import IndexType, MetricType from utils import * dim = 128 index_file_size = 10 GET_TIMEOUT = 30 nprobe = 1 top_k = 1 epsilon = 0.001 tag = "1970-01-01" nb = 6000 class TestGetVectorIdsBase: def get_valid_name(self, connect, collection): vectors = gen_vector(nb, dim) status, ids = connect.insert(collection, vectors) assert status.OK() status = connect.flush([collection]) assert status.OK() status, info = connect.get_collection_stats(collection) assert status.OK() return info["partitions"][0]["segments"][0]["name"] """ ****************************************************************** The following cases are used to test `list_id_in_segment` function ****************************************************************** """ @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_collection_name_None(self, connect, collection): ''' target: get vector ids where collection name is None method: call list_id_in_segment with the collection_name: None expected: exception raised ''' collection_name = None name = self.get_valid_name(connect, collection) with pytest.raises(Exception) as e: status, vector_ids = connect.list_id_in_segment(collection_name, name) @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_collection_name_not_existed(self, connect, collection): ''' target: get vector ids where collection name does not exist method: call list_id_in_segment with a random collection_name, which is not in db expected: status not ok ''' collection_name = gen_unique_str("not_existed_collection") name = self.get_valid_name(connect, collection) status, vector_ids = connect.list_id_in_segment(collection_name, name) assert not status.OK() @pytest.fixture( scope="function", params=gen_invalid_collection_names() ) def get_collection_name(self, request): yield request.param @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_collection_name_invalid(self, connect, collection, get_collection_name): ''' target: get vector ids where collection name is invalid method: call list_id_in_segment with invalid collection_name expected: status not ok ''' collection_name = get_collection_name name = self.get_valid_name(connect, collection) status, vector_ids = connect.list_id_in_segment(collection_name, name) assert not status.OK() @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_name_None(self, connect, collection): ''' target: get vector ids where segment name is None method: call list_id_in_segment with the name: None expected: exception raised ''' valid_name = self.get_valid_name(connect, collection) segment = None with pytest.raises(Exception) as e: status, vector_ids = connect.list_id_in_segment(collection, segment) @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_name_not_existed(self, connect, collection): ''' target: get vector ids where segment name does not exist method: call list_id_in_segment with a random segment name expected: status not ok ''' valid_name = self.get_valid_name(connect, collection) segment = gen_unique_str("not_existed_segment") status, vector_ids = connect.list_id_in_segment(collection, segment) logging.getLogger().info(vector_ids) assert not status.OK() @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_without_index_A(self, connect, collection): ''' target: get vector ids when there is no index method: call list_id_in_segment and check if the segment contains vectors expected: status ok ''' vectors = gen_vector(10, dim) status, ids = connect.insert(collection, vectors) assert status.OK() status = connect.flush([collection]) assert status.OK() status, info = connect.get_collection_stats(collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][0]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_without_index_B(self, connect, collection): ''' target: get vector ids when there is no index but with partition method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors expected: status ok ''' status = connect.create_partition(collection, tag) assert status.OK() vectors = gen_vector(10, dim) status, ids = connect.insert(collection, vectors, partition_tag=tag) assert status.OK() status = connect.flush([collection]) assert status.OK() status, info = connect.get_collection_stats(collection) assert status.OK() assert info["partitions"][1]["tag"] == tag status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][1]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.fixture( scope="function", params=gen_simple_index() ) def get_simple_index(self, request, connect): if str(connect._cmd("mode")[1]) == "CPU": if request.param["index_type"] not in [IndexType.IVF_SQ8, IndexType.IVFLAT, IndexType.FLAT]: pytest.skip("Only support index_type: flat/ivf_flat/ivf_sq8") else: pytest.skip("Only support CPU mode") return request.param @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_with_index_A(self, connect, collection, get_simple_index): ''' target: get vector ids when there is index method: call list_id_in_segment and check if the segment contains vectors expected: status ok ''' index_param = get_simple_index["index_param"] index_type = get_simple_index["index_type"] status = connect.create_index(collection, index_type, index_param) assert status.OK() vectors = gen_vector(10, dim) status, ids = connect.insert(collection, vectors) assert status.OK() status = connect.flush([collection]) assert status.OK() status, info = connect.get_collection_stats(collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][0]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_with_index_B(self, connect, collection, get_simple_index): ''' target: get vector ids when there is index and with partition method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors expected: status ok ''' status = connect.create_partition(collection, tag) assert status.OK() index_param = get_simple_index["index_param"] index_type = get_simple_index["index_type"] status = connect.create_index(collection, index_type, index_param) assert status.OK() vectors = gen_vector(10, dim) status, ids = connect.insert(collection, vectors, partition_tag=tag) assert status.OK() status = connect.flush([collection]) assert status.OK() status, info = connect.get_collection_stats(collection) assert status.OK() assert info["partitions"][1]["tag"] == tag status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][1]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_after_delete_vectors(self, connect, collection): ''' target: get vector ids after vectors are deleted method: add vectors and delete a few, call list_id_in_segment expected: status ok, vector_ids decreased after vectors deleted ''' vectors = gen_vector(2, dim) status, ids = connect.insert(collection, vectors) assert status.OK() delete_ids = [ids[0]] status = connect.delete_entity_by_id(collection, delete_ids) status = connect.flush([collection]) assert status.OK() status, info = connect.get_collection_stats(collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][0]["segments"][0]["name"]) assert len(vector_ids) == 1 assert vector_ids[0] == ids[1] class TestGetVectorIdsIP: """ ****************************************************************** The following cases are used to test `list_id_in_segment` function ****************************************************************** """ @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_without_index_A(self, connect, ip_collection): ''' target: get vector ids when there is no index method: call list_id_in_segment and check if the segment contains vectors expected: status ok ''' vectors = gen_vector(10, dim) status, ids = connect.insert(ip_collection, vectors) assert status.OK() status = connect.flush([ip_collection]) assert status.OK() status, info = connect.get_collection_stats(ip_collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][0]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_without_index_B(self, connect, ip_collection): ''' target: get vector ids when there is no index but with partition method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors expected: status ok ''' status = connect.create_partition(ip_collection, tag) assert status.OK() vectors = gen_vector(10, dim) status, ids = connect.insert(ip_collection, vectors, partition_tag=tag) assert status.OK() status = connect.flush([ip_collection]) assert status.OK() status, info = connect.get_collection_stats(ip_collection) assert status.OK() assert info["partitions"][1]["tag"] == tag status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][1]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.fixture( scope="function", params=gen_simple_index() ) def get_simple_index(self, request, connect): if str(connect._cmd("mode")[1]) == "CPU": if request.param["index_type"] not in [IndexType.IVF_SQ8, IndexType.IVFLAT, IndexType.FLAT]: pytest.skip("Only support index_type: flat/ivf_flat/ivf_sq8") else: pytest.skip("Only support CPU mode") return request.param @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_with_index_A(self, connect, ip_collection, get_simple_index): ''' target: get vector ids when there is index method: call list_id_in_segment and check if the segment contains vectors expected: status ok ''' index_param = get_simple_index["index_param"] index_type = get_simple_index["index_type"] status = connect.create_index(ip_collection, index_type, index_param) assert status.OK() vectors = gen_vector(10, dim) status, ids = connect.insert(ip_collection, vectors) assert status.OK() status = connect.flush([ip_collection]) assert status.OK() status, info = connect.get_collection_stats(ip_collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][0]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_with_index_B(self, connect, ip_collection, get_simple_index): ''' target: get vector ids when there is index and with partition method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors expected: status ok ''' status = connect.create_partition(ip_collection, tag) assert status.OK() index_param = get_simple_index["index_param"] index_type = get_simple_index["index_type"] status = connect.create_index(ip_collection, index_type, index_param) assert status.OK() vectors = gen_vector(10, dim) status, ids = connect.insert(ip_collection, vectors, partition_tag=tag) assert status.OK() status = connect.flush([ip_collection]) assert status.OK() status, info = connect.get_collection_stats(ip_collection) assert status.OK() assert info["partitions"][1]["tag"] == tag status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][1]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_after_delete_vectors(self, connect, ip_collection): ''' target: get vector ids after vectors are deleted method: add vectors and delete a few, call list_id_in_segment expected: status ok, vector_ids decreased after vectors deleted ''' vectors = gen_vector(2, dim) status, ids = connect.insert(ip_collection, vectors) assert status.OK() delete_ids = [ids[0]] status = connect.delete_entity_by_id(ip_collection, delete_ids) status = connect.flush([ip_collection]) assert status.OK() status, info = connect.get_collection_stats(ip_collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][0]["segments"][0]["name"]) assert len(vector_ids) == 1 assert vector_ids[0] == ids[1] class TestGetVectorIdsJAC: """ ****************************************************************** The following cases are used to test `list_id_in_segment` function ****************************************************************** """ @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_without_index_A(self, connect, jac_collection): ''' target: get vector ids when there is no index method: call list_id_in_segment and check if the segment contains vectors expected: status ok ''' tmp, vectors = gen_binary_vectors(10, dim) status, ids = connect.insert(jac_collection, vectors) assert status.OK() status = connect.flush([jac_collection]) assert status.OK() status, info = connect.get_collection_stats(jac_collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][0]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_without_index_B(self, connect, jac_collection): ''' target: get vector ids when there is no index but with partition method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors expected: status ok ''' status = connect.create_partition(jac_collection, tag) assert status.OK() tmp, vectors = gen_binary_vectors(10, dim) status, ids = connect.insert(jac_collection, vectors, partition_tag=tag) assert status.OK() status = connect.flush([jac_collection]) assert status.OK() status, info = connect.get_collection_stats(jac_collection) assert status.OK() assert info["partitions"][1]["tag"] == tag status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][1]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.fixture( scope="function", params=gen_simple_index() ) def get_jaccard_index(self, request, connect): logging.getLogger().info(request.param) if request.param["index_type"] == IndexType.IVFLAT or request.param["index_type"] == IndexType.FLAT: return request.param else: pytest.skip("Skip index Temporary") @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_with_index_A(self, connect, jac_collection, get_jaccard_index): ''' target: get vector ids when there is index method: call list_id_in_segment and check if the segment contains vectors expected: status ok ''' index_param = get_jaccard_index["index_param"] index_type = get_jaccard_index["index_type"] status = connect.create_index(jac_collection, index_type, index_param) assert status.OK() tmp, vectors = gen_binary_vectors(10, dim) status, ids = connect.insert(jac_collection, vectors) assert status.OK() status = connect.flush([jac_collection]) assert status.OK() status, info = connect.get_collection_stats(jac_collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][0]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_with_index_B(self, connect, jac_collection, get_jaccard_index): ''' target: get vector ids when there is index and with partition method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors expected: status ok ''' status = connect.create_partition(jac_collection, tag) assert status.OK() index_param = get_jaccard_index["index_param"] index_type = get_jaccard_index["index_type"] status = connect.create_index(jac_collection, index_type, index_param) assert status.OK() tmp, vectors = gen_binary_vectors(10, dim) status, ids = connect.insert(jac_collection, vectors, partition_tag=tag) assert status.OK() status = connect.flush([jac_collection]) assert status.OK() status, info = connect.get_collection_stats(jac_collection) assert status.OK() assert info["partitions"][1]["tag"] == tag status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][1]["segments"][0]["name"]) # vector_ids should match ids assert len(vector_ids) == 10 for i in range(10): assert vector_ids[i] == ids[i] @pytest.mark.timeout(GET_TIMEOUT) def test_list_id_in_segment_after_delete_vectors(self, connect, jac_collection): ''' target: get vector ids after vectors are deleted method: add vectors and delete a few, call list_id_in_segment expected: status ok, vector_ids decreased after vectors deleted ''' tmp, vectors = gen_binary_vectors(2, dim) status, ids = connect.insert(jac_collection, vectors) assert status.OK() delete_ids = [ids[0]] status = connect.delete_entity_by_id(jac_collection, delete_ids) status = connect.flush([jac_collection]) assert status.OK() status, info = connect.get_collection_stats(jac_collection) assert status.OK() status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][0]["segments"][0]["name"]) assert len(vector_ids) == 1 assert vector_ids[0] == ids[1]
43.265594
118
0.646793
2,721
21,503
4.875046
0.055862
0.058349
0.037995
0.07124
0.944365
0.927704
0.91406
0.909084
0.905767
0.898379
0
0.00955
0.240339
21,503
496
119
43.352823
0.80251
0.185276
0
0.810651
0
0
0.051474
0.003889
0
0
0
0
0.292899
1
0.073965
false
0
0.026627
0
0.121302
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
10c95a290b485d157519aec1a41d8c54e5723eeb
9,472
py
Python
tests/elections/test_election.py
eckelj/planetmint
c7086a1982d781cb7ace62f1dff5cd63ed016ae0
[ "Apache-2.0" ]
null
null
null
tests/elections/test_election.py
eckelj/planetmint
c7086a1982d781cb7ace62f1dff5cd63ed016ae0
[ "Apache-2.0" ]
null
null
null
tests/elections/test_election.py
eckelj/planetmint
c7086a1982d781cb7ace62f1dff5cd63ed016ae0
[ "Apache-2.0" ]
null
null
null
import pytest from tests.utils import generate_election, generate_validators from planetmint.lib import Block from planetmint.elections.election import Election from planetmint.migrations.chain_migration_election import ChainMigrationElection from planetmint.upsert_validator.validator_election import ValidatorElection @pytest.mark.bdb def test_process_block_concludes_all_elections(b): validators = generate_validators([1] * 4) b.store_validator_set(1, [v['storage'] for v in validators]) new_validator = generate_validators([1])[0] public_key = validators[0]['public_key'] private_key = validators[0]['private_key'] voter_keys = [v['private_key'] for v in validators] election, votes = generate_election(b, ChainMigrationElection, public_key, private_key, {}, voter_keys) txs = [election] total_votes = votes election, votes = generate_election(b, ValidatorElection, public_key, private_key, new_validator['election'], voter_keys) txs += [election] total_votes += votes b.store_abci_chain(1, 'chain-X') Election.process_block(b, 1, txs) b.store_block(Block(height=1, transactions=[tx.id for tx in txs], app_hash='')._asdict()) b.store_bulk_transactions(txs) Election.process_block(b, 2, total_votes) validators = b.get_validators() assert len(validators) == 5 assert new_validator['storage'] in validators chain = b.get_latest_abci_chain() assert chain assert chain == { 'height': 2, 'is_synced': False, 'chain_id': 'chain-X-migrated-at-height-1', } for tx in txs: assert b.get_election(tx.id)['is_concluded'] @pytest.mark.bdb def test_process_block_approves_only_one_validator_update(b): validators = generate_validators([1] * 4) b.store_validator_set(1, [v['storage'] for v in validators]) new_validator = generate_validators([1])[0] public_key = validators[0]['public_key'] private_key = validators[0]['private_key'] voter_keys = [v['private_key'] for v in validators] election, votes = generate_election(b, ValidatorElection, public_key, private_key, new_validator['election'], voter_keys) txs = [election] total_votes = votes another_validator = generate_validators([1])[0] election, votes = generate_election(b, ValidatorElection, public_key, private_key, another_validator['election'], voter_keys) txs += [election] total_votes += votes Election.process_block(b, 1, txs) b.store_block(Block(height=1, transactions=[tx.id for tx in txs], app_hash='')._asdict()) b.store_bulk_transactions(txs) Election.process_block(b, 2, total_votes) validators = b.get_validators() assert len(validators) == 5 assert new_validator['storage'] in validators assert another_validator['storage'] not in validators assert b.get_election(txs[0].id)['is_concluded'] assert not b.get_election(txs[1].id)['is_concluded'] @pytest.mark.bdb def test_process_block_approves_after_pending_validator_update(b): validators = generate_validators([1] * 4) b.store_validator_set(1, [v['storage'] for v in validators]) new_validator = generate_validators([1])[0] public_key = validators[0]['public_key'] private_key = validators[0]['private_key'] voter_keys = [v['private_key'] for v in validators] election, votes = generate_election(b, ValidatorElection, public_key, private_key, new_validator['election'], voter_keys) txs = [election] total_votes = votes another_validator = generate_validators([1])[0] election, votes = generate_election(b, ValidatorElection, public_key, private_key, another_validator['election'], voter_keys) txs += [election] total_votes += votes election, votes = generate_election(b, ChainMigrationElection, public_key, private_key, {}, voter_keys) txs += [election] total_votes += votes b.store_abci_chain(1, 'chain-X') Election.process_block(b, 1, txs) b.store_block(Block(height=1, transactions=[tx.id for tx in txs], app_hash='')._asdict()) b.store_bulk_transactions(txs) Election.process_block(b, 2, total_votes) validators = b.get_validators() assert len(validators) == 5 assert new_validator['storage'] in validators assert another_validator['storage'] not in validators assert b.get_election(txs[0].id)['is_concluded'] assert not b.get_election(txs[1].id)['is_concluded'] assert b.get_election(txs[2].id)['is_concluded'] assert b.get_latest_abci_chain() == {'height': 2, 'chain_id': 'chain-X-migrated-at-height-1', 'is_synced': False} @pytest.mark.bdb def test_process_block_does_not_approve_after_validator_update(b): validators = generate_validators([1] * 4) b.store_validator_set(1, [v['storage'] for v in validators]) new_validator = generate_validators([1])[0] public_key = validators[0]['public_key'] private_key = validators[0]['private_key'] voter_keys = [v['private_key'] for v in validators] election, votes = generate_election(b, ValidatorElection, public_key, private_key, new_validator['election'], voter_keys) txs = [election] total_votes = votes b.store_block(Block(height=1, transactions=[tx.id for tx in txs], app_hash='')._asdict()) Election.process_block(b, 1, txs) b.store_bulk_transactions(txs) second_election, second_votes = generate_election(b, ChainMigrationElection, public_key, private_key, {}, voter_keys) Election.process_block(b, 2, total_votes + [second_election]) b.store_block(Block(height=2, transactions=[v.id for v in total_votes + [second_election]], app_hash='')._asdict()) b.store_abci_chain(1, 'chain-X') Election.process_block(b, 3, second_votes) assert not b.get_election(second_election.id)['is_concluded'] assert b.get_latest_abci_chain() == {'height': 1, 'chain_id': 'chain-X', 'is_synced': True} @pytest.mark.bdb def test_process_block_applies_only_one_migration(b): validators = generate_validators([1] * 4) b.store_validator_set(1, [v['storage'] for v in validators]) public_key = validators[0]['public_key'] private_key = validators[0]['private_key'] voter_keys = [v['private_key'] for v in validators] election, votes = generate_election(b, ChainMigrationElection, public_key, private_key, {}, voter_keys) txs = [election] total_votes = votes election, votes = generate_election(b, ChainMigrationElection, public_key, private_key, {}, voter_keys) txs += [election] total_votes += votes b.store_abci_chain(1, 'chain-X') Election.process_block(b, 1, txs) b.store_block(Block(height=1, transactions=[tx.id for tx in txs], app_hash='')._asdict()) b.store_bulk_transactions(txs) Election.process_block(b, 1, total_votes) chain = b.get_latest_abci_chain() assert chain assert chain == { 'height': 2, 'is_synced': False, 'chain_id': 'chain-X-migrated-at-height-1', } assert b.get_election(txs[0].id)['is_concluded'] assert not b.get_election(txs[1].id)['is_concluded'] def test_process_block_gracefully_handles_empty_block(b): Election.process_block(b, 1, [])
35.743396
85
0.544552
987
9,472
4.954407
0.085106
0.05317
0.052352
0.062168
0.87771
0.855419
0.853374
0.827198
0.814724
0.814724
0
0.012541
0.36022
9,472
264
86
35.878788
0.794389
0
0
0.852217
1
0
0.063028
0.008868
0
0
0
0
0.1133
1
0.029557
false
0
0.029557
0
0.059113
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
10f865cb38dbbb792638f1a5d58029e76c88d47a
10,899
py
Python
run_main_tests.py
bolaabcd/Polarization2
19d2287f3f73a58a20b96108a069169d75bbd820
[ "MIT" ]
null
null
null
run_main_tests.py
bolaabcd/Polarization2
19d2287f3f73a58a20b96108a069169d75bbd820
[ "MIT" ]
null
null
null
run_main_tests.py
bolaabcd/Polarization2
19d2287f3f73a58a20b96108a069169d75bbd820
[ "MIT" ]
null
null
null
from main_cases import * from run_base_tests import simulate from default_beliefs import build_belief FUNCTION = belief_update_fs.quadratic_update # society type -> parameter -> range all_sims = ( ( scientists_buffer, "scientists_buffer_comun_dont_see_truth", [ 10,# num_scientists : int, 3,# num_comunicators : int, # extra scientists 20,# num_others : int, 1,# inf_truth_scientists : np.float64, 0.5,# inf_scientists_scientists : np.float64, 0.2,# inf_scientists_others : np.float64, 0.0,# inf_others_scientists : np.float64, 0.3,# inf_others_others : np.float64, FUNCTION,# upf_truth_scientists : FunctionType, FUNCTION,# upf_scientists_scientists : FunctionType, FUNCTION,# upf_scientists_others : FunctionType, FUNCTION,# upf_others_scientists : FunctionType, FUNCTION,# upf_others_others : FunctionType, 1,# tol_truth_scientists : np.float64, 1,# tol_scientists_scientists : np.float64, 1,# tol_scientists_others : np.float64, 1,# tol_others_scientists : np.float64, 1,# tol_others_others : np.float64, (build_belief, (3/5,1)),# bel_scientists_distr : np.float64, (build_belief, (0,1/4)),# bel_others_distr : np.float64, 1,# bel_truth : np.float64 = 1.0, False,# comunicators_see_truth : bool = False, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], [ (1,15),# num_scientists : int, (1,15),# num_comunicators : int, # extra scientists (1,30),# num_others : int, (0,1),# inf_truth_scientists : np.float64, (0,1),# inf_scientists_scientists : np.float64, (0,1),# inf_scientists_others : np.float64, (0,1),# inf_others_scientists : np.float64, (0,1),# inf_others_others : np.float64, None,# upf_truth_scientists : FunctionType, None,# upf_scientists_scientists : FunctionType, None,# upf_scientists_others : FunctionType, None,# upf_others_scientists : FunctionType, None,# upf_others_others : FunctionType, (-1,1),# tol_truth_scientists : np.float64, (-1,1),# tol_scientists_scientists : np.float64, (-1,1),# tol_scientists_others : np.float64, (-1,1),# tol_others_scientists : np.float64, (-1,1),# tol_others_others : np.float64, None,# bel_scientists_distr : np.float64, None,# bel_others_distr : np.float64, None,# bel_truth : np.float64 = 1.0, None,# comunicators_see_truth : bool = False, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], [ "num_scientists",# : int, "num_comunicators",# : int, # extra scientists "num_others",# : int, "inf_truth_scientists",# : np.float64, "inf_scientists_scientists",# : np.float64, "inf_scientists_others",# : np.float64, "inf_others_scientists",# : np.float64, "inf_others_others",# : np.float64, "upf_truth_scientists",# : FunctionType, "upf_scientists_scientists",# : FunctionType, "upf_scientists_others",# : FunctionType, "upf_others_scientists",# : FunctionType, "upf_others_others",# : FunctionType, "tol_truth_scientists",# : np.float64, "tol_scientists_scientists",# : np.float64, "tol_scientists_others",# : np.float64, "tol_others_scientists",# : np.float64, "tol_others_others",# : np.float64, "bel_scientists_distr",# : np.float64, "bel_others_distr",# : np.float64, "bel_truth",# : np.float64 = 1.0, "comunicators_see_truth",# : bool = False, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], ), ( scientists_buffer, "scientists_buffer_comun_see_truth", [ 10,# num_scientists : int, 3,# num_comunicators : int, # extra scientists 20,# num_others : int, 1,# inf_truth_scientists : np.float64, 0.5,# inf_scientists_scientists : np.float64, 0.2,# inf_scientists_others : np.float64, 0.0,# inf_others_scientists : np.float64, 0.3,# inf_others_others : np.float64, FUNCTION,# upf_truth_scientists : FunctionType, FUNCTION,# upf_scientists_scientists : FunctionType, FUNCTION,# upf_scientists_others : FunctionType, FUNCTION,# upf_others_scientists : FunctionType, FUNCTION,# upf_others_others : FunctionType, 1,# tol_truth_scientists : np.float64, 1,# tol_scientists_scientists : np.float64, 1,# tol_scientists_others : np.float64, 1,# tol_others_scientists : np.float64, 1,# tol_others_others : np.float64, (build_belief, (3/5,1)),# bel_scientists_distr : np.float64, (build_belief, (0,1/4)),# bel_others_distr : np.float64, 1,# bel_truth : np.float64 = 1.0, True,# comunicators_see_truth : bool = False, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], [ (1,15),# num_scientists : int, (1,15),# num_comunicators : int, # extra scientists (1,30),# num_others : int, (0,1),# inf_truth_scientists : np.float64, (0,1),# inf_scientists_scientists : np.float64, (0,1),# inf_scientists_others : np.float64, (0,1),# inf_others_scientists : np.float64, (0,1),# inf_others_others : np.float64, None,# upf_truth_scientists : FunctionType, None,# upf_scientists_scientists : FunctionType, None,# upf_scientists_others : FunctionType, None,# upf_others_scientists : FunctionType, None,# upf_others_others : FunctionType, (-1,1),# tol_truth_scientists : np.float64, (-1,1),# tol_scientists_scientists : np.float64, (-1,1),# tol_scientists_others : np.float64, (-1,1),# tol_others_scientists : np.float64, (-1,1),# tol_others_others : np.float64, None,# bel_scientists_distr : np.float64, None,# bel_others_distr : np.float64, None,# bel_truth : np.float64 = 1.0, None,# comunicators_see_truth : bool = False, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], [ "num_scientists",# : int, "num_comunicators",# : int, # extra scientists "num_others",# : int, "inf_truth_scientists",# : np.float64, "inf_scientists_scientists",# : np.float64, "inf_scientists_others",# : np.float64, "inf_others_scientists",# : np.float64, "inf_others_others",# : np.float64, "upf_truth_scientists",# : FunctionType, "upf_scientists_scientists",# : FunctionType, "upf_scientists_others",# : FunctionType, "upf_others_scientists",# : FunctionType, "upf_others_others",# : FunctionType, "tol_truth_scientists",# : np.float64, "tol_scientists_scientists",# : np.float64, "tol_scientists_others",# : np.float64, "tol_others_scientists",# : np.float64, "tol_others_others",# : np.float64, "bel_scientists_distr",# : np.float64, "bel_others_distr",# : np.float64, "bel_truth",# : np.float64 = 1.0, "comunicators_see_truth",# : bool = False, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], ), ( many_sides, "many_sides", [ 5,# num_sides : int, [2 for i in range(5)],# num_agents_sides : int, 10,# num_neutral_agents : int, 1,# influence_sides_agent : np.float64, 0.5,# influence_agent_agent : np.float64, FUNCTION,# update_sides_agent : np.float64, FUNCTION,# update_agent_agent : np.float64, 1,# tolerance_sides_agent : np.float64, 1,# tolerance_agent_agent : np.float64, 0.1,# side_diff : np.float64, 0.3,# neutral_low : np.float64 = 0, 0.7,# neutral_high : np.float64 = 1, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], [ None,# num_sides : int, None,# num_agents_sides : int, (2,100),# num_neutral_agents : int, (0,1),# influence_sides_agent : np.float64, (0,1),# influence_agent_agent : np.float64, None,# update_sides_agent : np.float64, None,# update_agent_agent : np.float64, (-1,1),# tolerance_sides_agent : np.float64, (-1,1),# tolerance_agent_agent : np.float64, None,# side_diff : np.float64, None,# neutral_low : np.float64 = 0, None,# neutral_high : np.float64 = 1, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], [ "num_sides",# : int, "num_agents_sides",# : int, "num_neutral_agents",# : int, "influence_sides_agent",# : np.float64, "influence_agent_agent",# : np.float64, "update_sides_agent",# : np.float64, "update_agent_agent",# : np.float64, "tolerance_sides_agent",# : np.float64, "tolerance_agent_agent",# : np.float64, "side_diff",# : np.float64, "neutral_low",# : np.float64 = 0, "neutral_high",# : np.float64 = 1, # see_constant_agents: bool = True, # constant_agents_tol: bool = False, # pol_measure : FunctionType = pol_ER_discretized ], ), ) simulate(all_sims, nsteps = 500)
45.4125
72
0.571153
1,149
10,899
5.078329
0.067885
0.161954
0.117224
0.049357
0.924764
0.850557
0.832048
0.811482
0.811482
0.811482
0
0.049497
0.315992
10,899
239
73
45.60251
0.733199
0.520048
0
0.795122
0
0
0.221559
0.119531
0
0
0
0
0
1
0
false
0
0.014634
0
0.014634
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
80138b8721fa43132a7f22a258b36f5ba930c4bd
16,564
py
Python
tests/tacacs/test_authorization.py
arista-northwest/sonic-mgmt
ef83219cf68b03693aedf22c22a040000a491a64
[ "Apache-2.0" ]
1
2021-02-22T05:32:02.000Z
2021-02-22T05:32:02.000Z
tests/tacacs/test_authorization.py
arista-northwest/sonic-mgmt
ef83219cf68b03693aedf22c22a040000a491a64
[ "Apache-2.0" ]
1
2021-04-29T03:00:53.000Z
2021-04-29T03:00:53.000Z
tests/tacacs/test_authorization.py
arista-northwest/sonic-mgmt
ef83219cf68b03693aedf22c22a040000a491a64
[ "Apache-2.0" ]
1
2021-08-20T03:34:30.000Z
2021-08-20T03:34:30.000Z
import crypt import paramiko import pytest from .test_ro_user import ssh_remote_run from .utils import stop_tacacs_server, start_tacacs_server, per_command_check_skip_versions, remove_all_tacacs_server from tests.common.helpers.assertions import pytest_assert from tests.common.utilities import skip_release pytestmark = [ pytest.mark.disable_loganalyzer, pytest.mark.topology('any'), pytest.mark.device_type('vs') ] logger = logging.getLogger(__name__) TIMEOUT_LIMIT = 120 def ssh_connect_remote(remote_ip, remote_username, remote_password): ssh = paramiko.SSHClient() ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy()) ssh.connect(remote_ip, username=remote_username, password=remote_password, allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT) return ssh def check_ssh_connect_remote_failed(remote_ip, remote_username, remote_password): login_failed = False try: ssh_client_local = ssh_connect_remote(remote_ip, remote_username, remote_password) except paramiko.ssh_exception.AuthenticationException as e: login_failed = True pytest_assert(login_failed == True) def ssh_run_command(ssh_client, command): stdin, stdout, stderr = ssh_client.exec_command(command, timeout=TIMEOUT_LIMIT) exit_code = stdout.channel.recv_exit_status() stdout_lines = stdout.readlines() stderr_lines = stderr.readlines() return exit_code, stdout_lines, stderr_lines def check_ssh_output(res, exp_val): content_exist = False for l in res: if exp_val in l: content_exist = True break pytest_assert(content_exist) @pytest.fixture def remote_user_client(duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts): duthost = duthosts[enum_rand_one_per_hwsku_hostname] dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] with ssh_connect_remote(dutip, creds_all_duts[duthost]['tacacs_authorization_user'], creds_all_duts[duthost]['tacacs_authorization_user_passwd']) as ssh_client: yield ssh_client @pytest.fixture def local_user_client(duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts): duthost = duthosts[enum_rand_one_per_hwsku_hostname] dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] with paramiko.SSHClient() as ssh_client: ssh_client.set_missing_host_key_policy(paramiko.AutoAddPolicy()) yield ssh_client @pytest.fixture(scope="module", autouse=True) def check_image_version(duthost): """Skips this test if the SONiC image installed on DUT is older than 202112 Args: duthost: Hostname of DUT. Returns: None. """ skip_release(duthost, per_command_check_skip_versions) def test_authorization_tacacs_only(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts, check_tacacs, remote_user_client): duthost = duthosts[enum_rand_one_per_hwsku_hostname] duthost.shell("sudo config aaa authorization tacacs+") """ Verify TACACS+ user run command in server side whitelist: If command have local permission, user can run command. """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') """ Verify TACACS+ user run command in server side whitelist: If command not have local permission, user can't run command. """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config aaa") pytest_assert(exit_code == 1) check_ssh_output(stderr, 'Root privileges are required for this operation') # Verify TACACS+ user can't run command not in server side whitelist. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "cat /etc/passwd") pytest_assert(exit_code == 1) check_ssh_output(stdout, '/usr/bin/cat authorize failed by TACACS+ with given arguments, not executing') # Verify Local user can't login. dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] check_ssh_connect_remote_failed(dutip, creds_all_duts[duthost]['local_user'], creds_all_duts[duthost]['local_user_passwd']) def test_authorization_tacacs_only_some_server_down(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client): """ Setup multiple tacacs server for this UT. Tacacs server 127.0.0.1 not accessible. """ invalid_tacacs_server_ip = "127.0.0.1" duthost = duthosts[enum_rand_one_per_hwsku_hostname] tacacs_server_ip = ptfhost.host.options['inventory_manager'].get_host(ptfhost.hostname).vars['ansible_host'] config_facts = duthost.config_facts(host=duthost.hostname, source="running")['ansible_facts'] duthost.shell("sudo config tacacs timeout 1") # cleanup all tacacs server, if UT break, tacacs server may still left in dut and will break next UT. remove_all_tacacs_server(duthost) duthost.shell("sudo config tacacs add %s" % invalid_tacacs_server_ip) duthost.shell("sudo config tacacs add %s" % tacacs_server_ip) """ Verify TACACS+ user run command in server side whitelist: If command have local permission, user can run command. If command not have local permission, user can't run command. Verify TACACS+ user can't run command not in server side whitelist. Verify Local user can't login. """ test_authorization_tacacs_only(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts, check_tacacs, remote_user_client) # Cleanup duthost.shell("sudo config tacacs delete %s" % invalid_tacacs_server_ip) def test_authorization_tacacs_only_then_server_down_after_login(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client): duthost = duthosts[enum_rand_one_per_hwsku_hostname] duthost.shell("sudo config aaa authorization tacacs+") # Verify when server are accessible, TACACS+ user can run command in server side whitelist. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') # Shutdown tacacs server stop_tacacs_server(ptfhost) # Verify when server are not accessible, TACACS+ user can't run any command. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa") pytest_assert(exit_code == 1) check_ssh_output(stdout, '/usr/local/bin/show not authorized by TACACS+ with given arguments, not executing') # Cleanup UT. start_tacacs_server(ptfhost) def test_authorization_tacacs_and_local(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client): duthost = duthosts[enum_rand_one_per_hwsku_hostname] duthost.shell("sudo config aaa authorization \"tacacs+ local\"") """ Verify TACACS+ user run command in server side whitelist: If command have local permission, user can run command. """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') """ Verify TACACS+ user run command in server side whitelist: If command not have local permission, user can't run command. """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config aaa") pytest_assert(exit_code == 1) check_ssh_output(stderr, 'Root privileges are required for this operation') # Verify TACACS+ user can run command not in server side whitelist, but have local permission. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "cat /etc/passwd") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'root:x:0:0:root:/root:/bin/bash') # Verify Local user can't login. dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] check_ssh_connect_remote_failed(dutip, creds_all_duts[duthost]['local_user'], creds_all_duts[duthost]['local_user_passwd']) def test_authorization_tacacs_and_local_then_server_down_after_login(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client, local_user_client): duthost = duthosts[enum_rand_one_per_hwsku_hostname] duthost.shell("sudo config aaa authorization \"tacacs+ local\"") # Shutdown tacacs server stop_tacacs_server(ptfhost) # Verify TACACS+ user can run command not in server side whitelist but have permission in local. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "cat /etc/passwd") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'root:x:0:0:root:/root:/bin/bash') # Verify TACACS+ user can't run command in server side whitelist also not have permission in local. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config tacacs") pytest_assert(exit_code == 1) check_ssh_output(stdout, '/usr/local/bin/config not authorized by TACACS+ with given arguments, not executing') check_ssh_output(stderr, 'Root privileges are required for this operation') # Verify Local user can login when tacacs closed, and run command with local permission. dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] local_user_client.connect(dutip, username=creds_all_duts[duthost]['local_user'], password=creds_all_duts[duthost]['local_user_passwd'], allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT) exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') # Start tacacs server start_tacacs_server(ptfhost) # Verify after Local user login, then server becomes accessible, Local user still can run command with local permission. exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') def test_authorization_local(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client, local_user_client): duthost = duthosts[enum_rand_one_per_hwsku_hostname] duthost.shell("sudo config aaa authorization local") """ TACACS server up: Verify TACACS+ user can run command if have permission in local. """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') """ TACACS server up: Verify TACACS+ user can't run command if not have permission in local. """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config aaa") pytest_assert(exit_code == 1) check_ssh_output(stderr, 'Root privileges are required for this operation') # Shutdown tacacs server. stop_tacacs_server(ptfhost) """ TACACS server down: Verify Local user can login, and run command with local permission. """ dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] local_user_client.connect(dutip, username=creds_all_duts[duthost]['local_user'], password=creds_all_duts[duthost]['local_user_passwd'], allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT) exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') # Cleanup start_tacacs_server(ptfhost) def test_bypass_authorization(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client): duthost = duthosts[enum_rand_one_per_hwsku_hostname] duthost.shell("sudo config aaa authorization tacacs+") """ Verify user can't run script with sh/python with following command. python ./testscript.py """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, 'echo "" >> ./testscript.py') pytest_assert(exit_code == 0) exit_code, stdout, stderr = ssh_run_command(remote_user_client, "python ./testscript.py") pytest_assert(exit_code == 1) check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing') # Verify user can't run 'find' command with '-exec' parameter. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "find . -type f -exec /bin/sh ;") pytest_assert(exit_code == 1) check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing') # Verify user can run 'find' command without '-exec' parameter. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "find . /bin/sh") pytest_assert(exit_code == 0) check_ssh_output(stdout, '/bin/sh') """ Verify user can't run command with loader: /lib/x86_64-linux-gnu/ld-linux-x86-64.so.2 sh """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "/lib/x86_64-linux-gnu/ld-linux-x86-64.so.2 sh") pytest_assert(exit_code == 1) check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing') """ Verify user can't run command with prefix/quoting: \sh "sh" echo $(sh -c ls) """ exit_code, stdout, stderr = ssh_run_command(remote_user_client, "\\sh") pytest_assert(exit_code == 1) check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing') exit_code, stdout, stderr = ssh_run_command(remote_user_client, '"sh"') pytest_assert(exit_code == 1) check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing') exit_code, stdout, stderr = ssh_run_command(remote_user_client, "echo $(sh -c ls)") # echo command will run success and return 0, but sh command will be blocked. pytest_assert(exit_code == 0) check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing') def test_backward_compatibility_disable_authorization(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client, local_user_client): duthost = duthosts[enum_rand_one_per_hwsku_hostname] duthost.shell("sudo config aaa authorization local") # Verify domain account can run command if have permission in local. exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') # Shutdown tacacs server stop_tacacs_server(ptfhost) # Verify domain account can't login to device successfully. dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] check_ssh_connect_remote_failed(dutip, creds_all_duts[duthost]['tacacs_authorization_user'], creds_all_duts[duthost]['tacacs_authorization_user_passwd']) # Verify local admin account can run command if have permission in local. dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host'] local_user_client.connect(dutip, username=creds_all_duts[duthost]['local_user'], password=creds_all_duts[duthost]['local_user_passwd'], allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT) exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa") pytest_assert(exit_code == 0) check_ssh_output(stdout, 'AAA authentication') # Verify local admin account can't run command if not have permission in local. exit_code, stdout, stderr = ssh_run_command(local_user_client, "config aaa") pytest_assert(exit_code == 1) check_ssh_output(stderr, 'Root privileges are required for this operation') # cleanup start_tacacs_server(ptfhost)
47.872832
201
0.735692
2,264
16,564
5.07818
0.106007
0.046969
0.043142
0.045229
0.826737
0.783596
0.757328
0.729669
0.722275
0.692007
0
0.005213
0.177674
16,564
346
202
47.872832
0.838852
0.1039
0
0.587629
0
0.005155
0.177103
0.018229
0
0
0
0
0.149485
1
0.07732
false
0.07732
0.036082
0
0.123711
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
1
0
0
0
0
0
7
8022a2e602a85b1bb45c1e025651d4d1f6a0b1aa
10,734
py
Python
tests/actions/test_sync_ldap_groups.py
WIPACrepo/keycloak-rest-services
2661b0db2dd320bdb8eefc62c805188bec52ecc7
[ "MIT" ]
1
2021-09-23T14:39:36.000Z
2021-09-23T14:39:36.000Z
tests/actions/test_sync_ldap_groups.py
WIPACrepo/keycloak-rest-services
2661b0db2dd320bdb8eefc62c805188bec52ecc7
[ "MIT" ]
38
2020-08-31T22:53:09.000Z
2022-03-28T20:55:39.000Z
tests/actions/test_sync_ldap_groups.py
WIPACrepo/keycloak-rest-services
2661b0db2dd320bdb8eefc62c805188bec52ecc7
[ "MIT" ]
null
null
null
import pytest import asyncio import logging #from krs.token import get_token from krs import users, groups, bootstrap, rabbitmq from actions import create_posix_account, sync_ldap_groups from ..util import keycloak_bootstrap, ldap_bootstrap, rabbitmq_bootstrap def test_flatten_group_name(): assert sync_ldap_groups.flatten_group_name('foo') == 'foo' assert sync_ldap_groups.flatten_group_name('foo/bar') == 'foo-bar' assert sync_ldap_groups.flatten_group_name('foo bar/baz') == 'foobar-baz' def test_get_ldap_members_empty(): assert sync_ldap_groups.get_ldap_members({}) == [] def test_get_ldap_members_uids_single(): group = {'memberUid': 'foo'} assert sync_ldap_groups.get_ldap_members(group) == ['foo'] def test_get_ldap_members_single(): group = {'member': ['cn=foo,ou=test,ou=com']} assert sync_ldap_groups.get_ldap_members(group) == ['foo'] def test_get_ldap_members_single_placeholder(): group = {'member': ['cn=empty-membership-placeholder','cn=foo,ou=test,ou=com']} assert sync_ldap_groups.get_ldap_members(group) == ['foo'] def test_get_ldap_members_placeholder(): group = {'member': ['cn=empty-membership-placeholder']} assert sync_ldap_groups.get_ldap_members(group) == [] @pytest.mark.asyncio async def test_sync_posix_single_new(keycloak_bootstrap, ldap_bootstrap): await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token()) await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap) await groups.create_group('/posix', rest_client=keycloak_bootstrap) await groups.create_group('/posix/test', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap) await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) await groups.add_user_group('/posix/test', 'testuser', rest_client=keycloak_bootstrap) await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ret = ldap_bootstrap.get_group('test') print(ret) assert 'gidNumber' in ret assert 'memberUid' in ret assert ret['memberUid'] == 'testuser' @pytest.mark.asyncio async def test_sync_posix_many_new(keycloak_bootstrap, ldap_bootstrap): await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token()) await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap) await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap) await groups.create_group('/posix', rest_client=keycloak_bootstrap) await groups.create_group('/posix/test', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap) await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) await groups.add_user_group('/posix/test', 'testuser', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix/test', 'testuser2', rest_client=keycloak_bootstrap) await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ret = ldap_bootstrap.get_group('test') print(ret) assert 'gidNumber' in ret assert 'memberUid' in ret assert set(ret['memberUid']) == set(['testuser', 'testuser2']) @pytest.mark.asyncio async def test_sync_posix_single_remove(keycloak_bootstrap, ldap_bootstrap): await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token()) await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap) await groups.create_group('/posix', rest_client=keycloak_bootstrap) await groups.create_group('/posix/test', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap) await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ldap_bootstrap.create_group('test', gidNumber=2000) ldap_bootstrap.add_user_group('testuser', 'test') ret = ldap_bootstrap.get_group('test') assert 'gidNumber' in ret assert 'memberUid' in ret assert ret['memberUid'] == 'testuser' await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ret = ldap_bootstrap.get_group('test') print(ret) assert 'memberUid' not in ret @pytest.mark.asyncio async def test_sync_posix_many_new_remove(keycloak_bootstrap, ldap_bootstrap): await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token()) await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap) await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap) await groups.create_group('/posix', rest_client=keycloak_bootstrap) await groups.create_group('/posix/test', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap) await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ldap_bootstrap.create_group('test', gidNumber=2000) ldap_bootstrap.add_user_group('testuser', 'test') ret = ldap_bootstrap.get_group('test') assert 'gidNumber' in ret assert 'memberUid' in ret assert ret['memberUid'] == 'testuser' await groups.add_user_group('/posix/test', 'testuser2', rest_client=keycloak_bootstrap) await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ret = ldap_bootstrap.get_group('test') print(ret) assert ret['memberUid'] == 'testuser2' @pytest.mark.asyncio async def test_sync_group_single_new(keycloak_bootstrap, ldap_bootstrap): await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token()) await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap) await groups.create_group('/posix', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap) await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) await groups.create_group('/groups', rest_client=keycloak_bootstrap) await groups.create_group('/groups/test', rest_client=keycloak_bootstrap) await groups.add_user_group('/groups/test', 'testuser', rest_client=keycloak_bootstrap) await sync_ldap_groups.process('/groups', posix=False, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ret = ldap_bootstrap.get_group('test') print(ret) assert 'gidNumber' not in ret assert 'member' in ret assert 'uid=testuser,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member'] @pytest.mark.asyncio async def test_sync_group_many_new(keycloak_bootstrap, ldap_bootstrap): await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token()) await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap) await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap) await groups.create_group('/posix', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap) await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) await groups.create_group('/groups', rest_client=keycloak_bootstrap) await groups.create_group('/groups/test', rest_client=keycloak_bootstrap) await groups.create_group('/groups/test/foo', rest_client=keycloak_bootstrap) await groups.add_user_group('/groups/test', 'testuser', rest_client=keycloak_bootstrap) await groups.add_user_group('/groups/test', 'testuser2', rest_client=keycloak_bootstrap) await sync_ldap_groups.process('/groups', posix=False, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ret = ldap_bootstrap.get_group('test') print(ret) assert 'gidNumber' not in ret assert 'member' in ret assert 'uid=testuser,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member'] assert 'uid=testuser2,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member'] with pytest.raises(KeyError): ret = ldap_bootstrap.get_group('test-foo') @pytest.mark.asyncio async def test_sync_group_recursive(keycloak_bootstrap, ldap_bootstrap): await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token()) await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap) await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap) await groups.create_group('/posix', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap) await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap) await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) await groups.create_group('/groups', rest_client=keycloak_bootstrap) await groups.create_group('/groups/test', rest_client=keycloak_bootstrap) await groups.create_group('/groups/test/foo', rest_client=keycloak_bootstrap) await groups.add_user_group('/groups/test', 'testuser', rest_client=keycloak_bootstrap) await groups.add_user_group('/groups/test/foo', 'testuser2', rest_client=keycloak_bootstrap) await sync_ldap_groups.process('/groups', posix=False, recursive=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap) ret = ldap_bootstrap.get_group('test') print(ret) assert 'gidNumber' not in ret assert 'member' in ret assert 'uid=testuser,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member'] ret = ldap_bootstrap.get_group('test-foo') print(ret) assert 'gidNumber' not in ret assert 'member' in ret assert 'uid=testuser2,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member']
52.876847
138
0.772592
1,432
10,734
5.471369
0.052374
0.156222
0.187875
0.172304
0.949458
0.943331
0.943331
0.918315
0.891512
0.870325
0
0.002922
0.107229
10,734
203
139
52.876847
0.814672
0.002888
0
0.78125
0
0
0.145567
0.009717
0
0
0
0
0.21875
1
0.0375
false
0
0.0375
0
0.075
0.05
0
0
0
null
0
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
9
33937c0622d62a4ff0409ddb1377d3f94345f1a2
11,517
py
Python
crawler/tests.py
davide-ceretti/web-crawler
3fbc44641e15992ff6b1c4190c9cd5db865bbcda
[ "MIT" ]
null
null
null
crawler/tests.py
davide-ceretti/web-crawler
3fbc44641e15992ff6b1c4190c9cd5db865bbcda
[ "MIT" ]
1
2015-02-21T19:28:53.000Z
2015-02-21T19:28:53.000Z
crawler/tests.py
davide-ceretti/web-crawler
3fbc44641e15992ff6b1c4190c9cd5db865bbcda
[ "MIT" ]
null
null
null
import unittest import mock from requests.models import Response from .core import Crawler @mock.patch('crawler.core.requests') class TestParse(unittest.TestCase): def setUp(self): self.crawler = Crawler('http://www.google.com') def test_empty_content(self, requests): response = mock.Mock(spec=Response, status_code=200, content='') requests.get.return_value = response result = self.crawler.parse('http://www.google.com') self.assertSetEqual(result, set()) def test_no_a_tags(self, requests): content = """ <html> <body> <h1>Hello world</h1> </body> </html> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') self.assertSetEqual(result, set()) def test_a_tag_external_domain(self, requests): content = """ <a href='http://www.facebook.com'>Facebook</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') self.assertSetEqual(result, set()) def test_a_tag_internal_domain_single_quote(self, requests): content = """ <a href='http://www.google.com/about'>About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = {'http://www.google.com/about'} self.assertSetEqual(result, expected) def test_a_tag_internal_domain_double_quote(self, requests): content = """ <a href="http://www.google.com/about">About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = {'http://www.google.com/about'} self.assertSetEqual(result, expected) def test_multiple_a_tags_internal_domain(self, requests): content = """ <a href='http://www.google.com/about'>About</a> <h1>Some stuff</h1> <a href='http://www.google.com/jobs'>Jobs</a> <a href='http://www.google.com/contact'>Contact</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = { 'http://www.google.com/about', 'http://www.google.com/jobs', 'http://www.google.com/contact', } self.assertSetEqual(result, expected) def test_a_tag_inside_initial_page(self, requests): content = """ <a href='#about'>About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') self.assertSetEqual(result, set()) def test_multiple_a_tag_same_link(self, requests): content = """ <a href='http://www.google.com/about'>About</a> <h1>Some stuff</h1> <a href='http://www.google.com/about'>About again</a> <a href='http://www.google.com/contact'>Contact</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response expected = { 'http://www.google.com/about', 'http://www.google.com/contact', } result = self.crawler.parse('http://www.google.com') self.assertSetEqual(result, expected) def test_a_tag_relative_path_initial_slash(self, requests): content = """ <a href='/about'>About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = {'http://www.google.com/about'} self.assertSetEqual(result, expected) def test_a_tag_relative_path_no_initial_slash(self, requests): content = """ <a href='about'>About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = {'http://www.google.com/about'} self.assertSetEqual(result, expected) def test_a_tag_relative_path_ending_slash(self, requests): content = """ <a href='about/'>About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = {'http://www.google.com/about'} self.assertSetEqual(result, expected) def test_a_tag_additional_attributes(self, requests): content = """ <a class="red" href='about' attr="123">About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = {'http://www.google.com/about'} self.assertSetEqual(result, expected) def test_a_tag_upper_case(self, requests): content = """ <A HREF='about'>About</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') expected = {'http://www.google.com/about'} self.assertSetEqual(result, expected) def test_a_tag_mailto(self, requests): content = """ <a href='mailto:admin@localhost.com'>Mail</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') self.assertSetEqual(result, set()) def test_a_tag_javascript(self, requests): content = """ <a href='javascript:void(0)'>Javascript</a> """ response = mock.Mock(spec=Response, status_code=200, content=content) requests.get.return_value = response result = self.crawler.parse('http://www.google.com') self.assertSetEqual(result, set()) @mock.patch.object(Crawler, 'parse') class TestCrawl(unittest.TestCase): maxDiff = None def setUp(self): self.crawler = Crawler('http://www.google.com') def test_one_page_no_link(self, parse): parse.return_value = {'http://www.google.com'} result = self.crawler.crawl() expected = { 'http://www.google.com': {'http://www.google.com'}, } self.assertEqual(result, expected) def test_two_pages_two_links_each_page(self, parse): parse.side_effect = [ {'http://www.google.com', 'http://www.google.com/about'}, {'http://www.google.com', 'http://www.google.com/about'}, ] result = self.crawler.crawl() expected = { 'http://www.google.com': { 'http://www.google.com', 'http://www.google.com/about', }, 'http://www.google.com/about': { 'http://www.google.com', 'http://www.google.com/about', } } self.assertEqual(result, expected) def test_max_iterations(self, parse): self.crawler.MAX_ITERATIONS = 3 parse.side_effect = [ {'http://www.google.com/a'}, {'http://www.google.com/b'}, {'http://www.google.com/c'}, {'http://www.google.com/d'}, {'http://www.google.com/e'}, ] result = self.crawler.crawl() expected = { 'http://www.google.com': {'http://www.google.com/a'}, 'http://www.google.com/a': {'http://www.google.com/b'}, 'http://www.google.com/b': {'http://www.google.com/c'}, } self.assertEqual(result, expected) def test_all_links_crawled(self, parse): parse.side_effect = [ {'http://www.google.com/a', 'http://www.google.com/a'}, {'http://www.google.com/b', 'http://www.google.com/c'}, {'http://www.google.com/d', 'http://www.google.com/e'}, {'http://www.google.com/f', 'http://www.google.com/a'}, {'http://www.google.com/b', 'http://www.google.com/a'}, {'http://www.google.com/c'}, {'http://www.google.com/b'}, ] result = self.crawler.crawl() expected_keys = { 'http://www.google.com', 'http://www.google.com/a', 'http://www.google.com/b', 'http://www.google.com/c', 'http://www.google.com/d', 'http://www.google.com/e', 'http://www.google.com/f', } self.assertEqual(set(result.keys()), expected_keys) self.assertEqual(len(result.keys()), len(expected_keys)) class TestGenerateXMLData(unittest.TestCase): def setUp(self): self.crawler = Crawler('one') def test_no_links(self): crawl_dit = { 'one': set(), } data = self.crawler.get_xml_data(crawl_dit) expected = set([ ('one', 1), ]) self.assertSetEqual(set(data), expected) def test_multiple_links(self): crawl_dit = { 'one': {'one', 'two', 'three', 'five'}, 'two': {'one', 'five'}, 'three': {'one', 'four'}, 'four': {'one', 'three'}, 'five': set(), } data = self.crawler.get_xml_data(crawl_dit) expected = set([ ('one', 0.40), ('two', 0.10), ('three', 0.20), ('four', 0.10), ('five', 0.20), ]) self.assertSetEqual(set(data), expected) class TestGenerateSiteMap(unittest.TestCase): def setUp(self): self.crawler = Crawler('one') def test_no_urls(self): data = tuple() result = self.crawler.generate_site_map(data) expected = """<?xml version="1.0" ?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"/> """ self.assertEqual(result, expected) def test_multiple_urls(self): data = set([ ('one', 0.661), ('two', 0.228), ('three', 0.111), ('four', 1), ]) result = self.crawler.generate_site_map(data) expected = """<?xml version="1.0" ?> <urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"> <url> <loc>four</loc> <priority>1.00</priority> </url> <url> <loc>one</loc> <priority>0.66</priority> </url> <url> <loc>two</loc> <priority>0.23</priority> </url> <url> <loc>three</loc> <priority>0.11</priority> </url> </urlset> """ self.assertEqual(result, expected) if __name__ == '__main__': unittest.main()
30.307895
77
0.56473
1,336
11,517
4.755988
0.108533
0.091438
0.163676
0.201448
0.819799
0.782184
0.755115
0.755115
0.737488
0.720491
0
0.012515
0.271512
11,517
379
78
30.387863
0.744815
0
0
0.576389
0
0
0.307285
0.027438
0
0
0
0
0.083333
1
0.09375
false
0
0.013889
0
0.125
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
33c19030d65f38ec90e893124f89cc32035b7c3f
23,611
py
Python
Yellow_Pages_Finland/unit_tests.py
Jay4C/Web-Scraping
187679bee035dad661d983b5a8382240f820c337
[ "MIT" ]
1
2022-02-28T05:05:06.000Z
2022-02-28T05:05:06.000Z
Yellow_Pages_Finland/unit_tests.py
Jay4C/Web-Scraping
187679bee035dad661d983b5a8382240f820c337
[ "MIT" ]
23
2020-03-04T22:17:32.000Z
2021-01-21T09:35:33.000Z
Yellow_Pages_Finland/unit_tests.py
Jay4C/Web-Scraping
187679bee035dad661d983b5a8382240f820c337
[ "MIT" ]
null
null
null
from bs4 import BeautifulSoup import requests import time import pymysql.cursors import unittest class UnitTestsDataMinerYellowPagesFinland(unittest.TestCase): def test_extract_email_from_one_result(self): print("test_extract_email_from_one_result") headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103' } url = "https://www.finder.fi/Hotelli/Original+Sokos+Hotel+Vaakuna+Pori/Pori/yhteystiedot/175394" # Request the content of a page from the url html = requests.get(url, headers=headers) # Parse the content of html_doc soup = BeautifulSoup(html.content, 'html.parser') if soup.find('a', {'class': 'listing-email'}) is not None: email = "info@" + soup.find('a', {'class': 'listing-email'}).get('href').split("@")[1] print("email type 1 : " + email) else: print("no email type 1") def test_extract_email_from_website_from_one_result(self): print("test_extract_email_from_website_from_one_result") headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103' } url = "https://www.finder.fi/Hotelli/Original+Sokos+Hotel+Vaakuna+Pori/Pori/yhteystiedot/175394" # Request the content of a page from the url html = requests.get(url, headers=headers) # Parse the content of html_doc soup = BeautifulSoup(html.content, 'html.parser') if soup.find('a', {'class': 'listing-website-url'}) is not None: email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \ .get('href').replace("www.", "") \ .replace("http://", "") \ .replace("https://", "") \ .split('/')[0] \ .replace('/', '') print("email type 2 : " + email) else: print("no email type 2") def test_extract_each_email_from_one_page_of_results_for_one_activity_and_one_capital(self): print("test_extract_each_email_from_one_page_of_results_for_one_activity_and_one_capital") headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103' } url_page_of_results = "https://www.finder.fi/search?what=hotel%20Helsinki&page=2" print(url_page_of_results) # Request the content of a page from the url html = requests.get(url_page_of_results, headers=headers) # Parse the content of html_doc soup = BeautifulSoup(html.content, 'html.parser') if soup.find('div', {'class': 'SearchResult'}) is not None: all_results = soup.find_all('div', {'class': 'SearchResult'}) try: for result in all_results: if result.find('a', {'class': 'SearchResult__ProfileLink'}) is not None: url_result = "https://www.finder.fi" + result\ .find('a', {'class': 'SearchResult__ProfileLink'})\ .get('href') # Request the content of a page from the url html = requests.get(url_result, headers=headers) # Parse the content of html_doc soup = BeautifulSoup(html.content, 'html.parser') if soup.find('a', {'class': 'listing-email'}) is not None: email = "info@" + soup.find('a', {'class': 'listing-email'}).get('href').split("@")[1] print("email type 1 : " + email) else: print("no email type 1") if soup.find('a', {'class': 'listing-website-url'}) is not None: email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \ .get('href').replace("www.", "") \ .replace("http://", "") \ .replace("https://", "") \ .split('/')[0] \ .replace('/', '') print("email type 2 : " + email) else: print("no email type 2") else: print("no a class SearchResult__ProfileLink") except Exception as e: print("error all_results : " + str(e)) else: print("no div class SearchResult") def test_extract_each_email_from_all_pages_of_results_for_one_activity_and_one_capital(self): print("test_extract_each_email_from_all_pages_of_results_for_one_activity_and_one_capital") activity = "hotel" city = "Helsinki" url_search = "https://www.finder.fi/search?what=" + activity + " " + city headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103' } html_search = requests.get(url_search, headers=headers) soup_search = BeautifulSoup(html_search.content, 'html.parser') number_of_pages = 0 try: if soup_search.find("a", {"class": "SearchResultList__MoreButton"}) is not None: number_of_pages_with_coma = int(soup_search.find("a", {"class": "SearchResultList__MoreButton"}) .text .replace("Lisää tuloksia (25/", "") .replace(")", "") ) / 25 if int(str(number_of_pages_with_coma).split(".")[1][:1]) < 5: number_of_pages += round(number_of_pages_with_coma) + 1 print('number_of_pages : ' + str(number_of_pages)) elif int(str(number_of_pages_with_coma).split(".")[1][:1]) >= 5: number_of_pages += round(number_of_pages_with_coma) print('number_of_pages : ' + str(number_of_pages)) for i in range(1, number_of_pages + 1): i_1 = 0 url_of_one_page_of_results = url_search + "&page=" + str(i) print(url_of_one_page_of_results) time.sleep(3) html_of_one_page_of_results = requests.get(url_of_one_page_of_results, headers=headers) soup_of_one_page_of_results = BeautifulSoup(html_of_one_page_of_results.content, 'html.parser') if soup_of_one_page_of_results.find('div', {'class': 'SearchResult'}) is not None: all_results = soup_of_one_page_of_results.find_all('div', {'class': 'SearchResult'}) try: for result in all_results: i_1 += 1 if result.find('a', {'class': 'SearchResult__ProfileLink'}) is not None: url_result = "https://www.finder.fi" + result \ .find('a', {'class': 'SearchResult__ProfileLink'}) \ .get('href') # Request the content of a page from the url html = requests.get(url_result, headers=headers) # Parse the content of html_doc soup = BeautifulSoup(html.content, 'html.parser') if soup.find('a', {'class': 'listing-email'}) is not None: email = "info@" + \ soup.find('a', {'class': 'listing-email'}).get('href').split("@")[1] print(str(i_1) + " _ email type 1 : " + email) else: print(str(i_1) + " _ no email type 1") if soup.find('a', {'class': 'listing-website-url'}) is not None: email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \ .get('href').replace("www.", "") \ .replace("http://", "") \ .replace("https://", "") \ .split('/')[0] \ .replace('/', '') print(str(i_1) + " _ email type 2 : " + email) else: print(str(i_1) + " _ no email type 2") else: print(str(i_1) + " _ no a class SearchResult__ProfileLink") except Exception as e: print("error all_results : " + str(e)) else: print("no div class SearchResult") else: print("no pages at all") except Exception as e: print("error 2 : " + str(e)) def test_extract_each_email_from_all_pages_of_results_for_all_activities_and_all_capitals(self): print("test_extract_each_email_from_all_pages_of_results_for_all_activities_and_all_capitals") activites = [ {'id': '1', 'url': 'job'}, {'id': '2', 'url': 'kiinteä'}, {'id': '3', 'url': 'rekrytointi'}, {'id': '4', 'url': 'software'}, {'id': '5', 'url': 'hotel'}, {'id': '6', 'url': 'vuokranantaja'}, {'id': '7', 'url': 'puhdistus'}, {'id': '8', 'url': 'yhteiskunnassa'}, {'id': '9', 'url': 'taloudellinen'}, {'id': '10', 'url': 'ravintola'}, {'id': '11', 'url': 'rakennus'}, {'id': '12', 'url': 'kampaaja'}, {'id': '13', 'url': 'kukkakauppias'}, {'id': '14', 'url': 'lukkoseppä'}, {'id': '15', 'url': 'leipomo'}, {'id': '16', 'url': 'varmuus'}, {'id': '17', 'url': 'apteekki'}, {'id': '18', 'url': 'liikkua'}, {'id': '19', 'url': 'sähköä'}, {'id': '20', 'url': 'putkisto'}, {'id': '21', 'url': 'turvallisuus'}, {'id': '22', 'url': 'lakimies'}, {'id': '23', 'url': 'pankki'}, {'id': '24', 'url': 'autotalli'}, {'id': '25', 'url': 'hammaslääkäri'}, {'id': '26', 'url': 'lääkäri'}, {'id': '27', 'url': 'kirjanpito'}, {'id': '28', 'url': 'supermarket'}, {'id': '29', 'url': 'notaari'}, {'id': '30', 'url': 'helmi'}, {'id': '31', 'url': 'ompelija'}, {'id': '32', 'url': 'liha'}, {'id': '33', 'url': 'kirjakauppa'}, {'id': '34', 'url': 'arkkitehti'}, {'id': '36', 'url': 'sementti'}, {'id': '37', 'url': 'lämmitin'}, {'id': '38', 'url': 'vene'}, {'id': '39', 'url': 'kylmä'}, {'id': '41', 'url': 'teräs'}, {'id': '42', 'url': 'kemiallinen'}, {'id': '43', 'url': 'kaasu'}, {'id': '44', 'url': 'kulta'} ] capitales_du_monde = [ {'id': '510', 'nom': 'Rovaniemi'}, {'id': '511', 'nom': 'Oulu'}, {'id': '512', 'nom': 'Kajaani'}, {'id': '513', 'nom': 'Joensuu'}, {'id': '514', 'nom': 'Kuopio'}, {'id': '515', 'nom': 'Mikkeli'}, {'id': '516', 'nom': 'Lappeenranta'}, {'id': '517', 'nom': 'Jyväskylä'}, {'id': '518', 'nom': 'Seinäjoki'}, {'id': '519', 'nom': 'Vaasa'}, {'id': '520', 'nom': 'Kokkola'}, {'id': '521', 'nom': 'Tampere'}, {'id': '522', 'nom': 'Pori'}, {'id': '523', 'nom': 'Lahti'}, {'id': '524', 'nom': 'Hämeenlinna'}, {'id': '525', 'nom': 'Kouvola'}, {'id': '526', 'nom': 'Kotka'}, {'id': '527', 'nom': 'Helsinki'}, {'id': '528', 'nom': 'Turku'}, {'id': '529', 'nom': 'Porvoo'}, ] try: for capitale in capitales_du_monde: for activite in activites: activity = activite.get('url') city = capitale.get('nom') url_search = "https://www.finder.fi/search?what=" + activity + " " + city headers = { 'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103' } html_search = requests.get(url_search, headers=headers) soup_search = BeautifulSoup(html_search.content, 'html.parser') number_of_pages = 0 try: if soup_search.find("a", {"class": "SearchResultList__MoreButton"}) is not None: number_of_pages_with_coma = int( soup_search.find("a", {"class": "SearchResultList__MoreButton"}) .text .replace("Lisää tuloksia (25/", "") .replace(")", "") ) / 25 if int(str(number_of_pages_with_coma).split(".")[1][:1]) < 5: number_of_pages += round(number_of_pages_with_coma) + 1 print('number_of_pages : ' + str(number_of_pages)) elif int(str(number_of_pages_with_coma).split(".")[1][:1]) >= 5: number_of_pages += round(number_of_pages_with_coma) print('number_of_pages : ' + str(number_of_pages)) for i in range(1, number_of_pages + 1): i_1 = 0 url_of_one_page_of_results = url_search + "&page=" + str(i) print(url_of_one_page_of_results) time.sleep(3) html_of_one_page_of_results = requests.get(url_of_one_page_of_results, headers=headers) soup_of_one_page_of_results = BeautifulSoup(html_of_one_page_of_results.content, 'html.parser') if soup_of_one_page_of_results.find('div', {'class': 'SearchResult'}) is not None: all_results = soup_of_one_page_of_results.find_all('div', {'class': 'SearchResult'}) try: for result in all_results: i_1 += 1 if result.find('a', {'class': 'SearchResult__ProfileLink'}) is not None: url_result = "https://www.finder.fi" + result \ .find('a', {'class': 'SearchResult__ProfileLink'}) \ .get('href') # Request the content of a page from the url html = requests.get(url_result, headers=headers) # Parse the content of html_doc soup = BeautifulSoup(html.content, 'html.parser') if soup.find('a', {'class': 'listing-email'}) is not None: email = "info@" + \ soup.find('a', {'class': 'listing-email'}).get( 'href').split("@")[1] print(str(i_1) + " _ email type 1 : " + email) try: connection = pymysql.connect( host='localhost', port=3306, user='', password='', db='contacts_professionnels', charset='utf8mb4', cursorclass=pymysql.cursors.DictCursor ) with connection.cursor() as cursor: try: sql = "INSERT INTO `emails` (" \ "`id_activite`, " \ "`id_capitale_du_monde`, " \ "`email`) VALUE (%s, %s, %s)" cursor.execute(sql, ( activite.get('id'), capitale.get('id'), email)) connection.commit() print(str(i_1) + " The record is stored : " + email) connection.close() except Exception as e: print(str(i_1) + " The record already exists : " + email + " " + str(e)) connection.close() except Exception as e: print(str( i_1) + " An error with the email : " + email + " " + str(e)) else: print(str(i_1) + " _ no email type 1") if soup.find('a', {'class': 'listing-website-url'}) is not None: email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \ .get('href').replace("www.", "") \ .replace("http://", "") \ .replace("https://", "") \ .split('/')[0] \ .replace('/', '') print(str(i_1) + " _ email type 2 : " + email) try: connection = pymysql.connect( host='localhost', port=3306, user='', password='', db='contacts_professionnels', charset='utf8mb4', cursorclass=pymysql.cursors.DictCursor ) with connection.cursor() as cursor: try: sql = "INSERT INTO `emails` (" \ "`id_activite`, " \ "`id_capitale_du_monde`, " \ "`email`) VALUE (%s, %s, %s)" cursor.execute(sql, ( activite.get('id'), capitale.get('id'), email)) connection.commit() print(str(i_1) + " The record is stored : " + email) connection.close() except Exception as e: print(str(i_1) + " The record already exists : " + email + " " + str(e)) connection.close() except Exception as e: print(str( i_1) + " An error with the email : " + email + " " + str(e)) else: print(str(i_1) + " _ no email type 2") else: print(str(i_1) + " _ no a class SearchResult__ProfileLink") except Exception as e: print("error all_results : " + str(e)) else: print("no div class SearchResult") else: print("no pages at all") except Exception as e: print("error 2 : " + str(e)) finally: print('done') if __name__ == '__main__': unittest.main()
52.35255
131
0.367286
1,915
23,611
4.324804
0.147258
0.021009
0.031393
0.034774
0.842067
0.839773
0.833253
0.833253
0.829148
0.819488
0
0.031141
0.513108
23,611
450
132
52.468889
0.689109
0.018508
0
0.677054
0
0.01983
0.188118
0.032727
0
0
0
0
0
1
0.014164
false
0.005666
0.014164
0
0.031161
0.135977
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
33c3687bd4a178932d5dee4460ff84c082e40454
415
py
Python
chapter 9/sampleCode4.py
DTAIEB/Thoughtful-Data-Science
8b80e8f3e33b6fdc6672ecee1f27e0b983b28241
[ "Apache-2.0" ]
15
2018-06-01T19:18:32.000Z
2021-11-28T03:31:35.000Z
chapter 9/sampleCode4.py
chshychen/Thoughtful-Data-Science
8b80e8f3e33b6fdc6672ecee1f27e0b983b28241
[ "Apache-2.0" ]
1
2018-12-17T02:01:42.000Z
2018-12-17T02:01:42.000Z
chapter 9/sampleCode4.py
chshychen/Thoughtful-Data-Science
8b80e8f3e33b6fdc6672ecee1f27e0b983b28241
[ "Apache-2.0" ]
10
2018-09-23T02:45:45.000Z
2022-03-12T15:32:05.000Z
airports = pixiedust.sampleData("https://github.com/DTAIEB/Thoughtful-Data-Science/raw/master/chapter%209/USFlightsAnalysis/airports.csv") airlines = pixiedust.sampleData("https://github.com/DTAIEB/Thoughtful-Data-Science/raw/master/chapter%209/USFlightsAnalysis/airlines.csv") flights = pixiedust.sampleData("https://github.com/DTAIEB/Thoughtful-Data-Science/raw/master/chapter%209/USFlightsAnalysis/flights.zip")
103.75
138
0.826506
51
415
6.72549
0.372549
0.166181
0.209913
0.262391
0.83965
0.83965
0.83965
0.83965
0.83965
0.83965
0
0.022167
0.021687
415
3
139
138.333333
0.82266
0
0
0
0
1
0.742169
0
0
0
0
0
0
1
0
false
0
0
0
0
0
0
0
0
null
0
1
1
1
1
1
1
1
1
0
0
0
0
1
0
1
0
0
0
0
0
1
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
12
33ec5f0922b60f6106a8d26116393ef6b0028649
8,968
py
Python
ems_auth/decorators.py
Atwinenickson/lendsuphumanresourcemanagement
b46df164d59a4e94300376d679e07bd9a60d6343
[ "MIT", "Unlicense" ]
36
2019-11-26T11:46:32.000Z
2022-02-17T13:18:18.000Z
ems_auth/decorators.py
Atwinenickson/lendsuphumanresourcemanagement
b46df164d59a4e94300376d679e07bd9a60d6343
[ "MIT", "Unlicense" ]
13
2020-02-14T09:30:16.000Z
2022-03-12T00:58:09.000Z
ems_auth/decorators.py
Atwinenickson/lendsuphumanresourcemanagement
b46df164d59a4e94300376d679e07bd9a60d6343
[ "MIT", "Unlicense" ]
16
2019-06-14T12:11:29.000Z
2022-02-14T15:16:07.000Z
from django.contrib.auth import logout, get_user_model from django.http import HttpResponseRedirect from django.shortcuts import render from django.urls import reverse from ems_admin.selectors import get_user from ems_auth.models import SolitonUser User = get_user_model() def ems_login_required(function): def wrapper(request, *args, **kw): user = request.user if user.is_authenticated: return function(request, *args, **kw) else: return HttpResponseRedirect(reverse('login')) return wrapper def super_admin_required(function): def wrapper(request, *args, **kw): user = request.user if user.is_superuser: return function(request, *args, **kw) else: return HttpResponseRedirect(reverse('super_admin_required_page')) return wrapper def employee_required(function): def wrapper(request, *args, **kw): user = request.user try: solitonuser = user.solitonuser return function(request, *args, **kw) except SolitonUser.DoesNotExist: return render(request, "employee_required.html") return wrapper def hr_required(function): def wrapper(request, *args, **kw): user = request.user if user.is_hr: return function(request, *args, **kw) else: return HttpResponseRedirect(reverse('hr_required_page')) return wrapper def hod_required(function): def wrapper(request, *args, **kw): user = request.user if user.is_hod: return function(request, *args, **kw) else: return HttpResponseRedirect(reverse('hod_required_page')) return wrapper def first_login(function): def wrapper(request, *args, **kwargs): user = request.user if not user.password_changed: user.password_changed = True user.save() logout(request) return render(request, "ems_auth/first_time_login.html") else: return function(request, *args, **kwargs) return wrapper def employees_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Employees")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass def organisation_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Organisation")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass def leave_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # ems_permission = EMSPermission.objects.filter(user=user, name="Leave")[0] # if ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except: # return function(request, **kw) # # return wrapper pass def payroll_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Payroll")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass def overtime_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Overtime")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass def holidays_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Holidays")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass def recruitment_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Recruitment")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass def contracts_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Contracts")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except: # return function(request, **kw) # return wrapper pass def training_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Training")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass def learning_and_development_full_auth_required(function): # def wrapper(request, **kw): # try: # user_id = request.user.id # user = get_user(user_id) # try: # ems_permission = EMSPermission.objects.filter(user=user, name="Learning and Development")[0] # except IndexError: # ems_permission = None # # if ems_permission and ems_permission.full_auth: # return function(request, **kw) # else: # return render(request, "ems_auth/full_auth_required.html") # # except User.DoesNotExist: # return function(request, **kw) # # return wrapper pass
30.09396
110
0.566682
917
8,968
5.354417
0.080698
0.100611
0.111202
0.093686
0.835845
0.802037
0.802037
0.802037
0.79165
0.739511
0
0.001673
0.333519
8,968
297
111
30.195286
0.819809
0.583965
0
0.468354
0
0
0.032349
0.02166
0
0
0
0
0
1
0.278481
false
0.151899
0.075949
0
0.582278
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
1
0
0
1
0
0
9
1d2187e26e2a4aa2bc2f1b2eb7c38ef590a9d6b1
119
py
Python
customization/patches/custom_field.py
KaviyaPeriyasamy/customization
1acc0007bda8714828a87d336a77402261d2849a
[ "MIT" ]
null
null
null
customization/patches/custom_field.py
KaviyaPeriyasamy/customization
1acc0007bda8714828a87d336a77402261d2849a
[ "MIT" ]
null
null
null
customization/patches/custom_field.py
KaviyaPeriyasamy/customization
1acc0007bda8714828a87d336a77402261d2849a
[ "MIT" ]
1
2021-10-08T07:09:59.000Z
2021-10-08T07:09:59.000Z
import frappe from customization.custom.custom_field import make_custom_fields def execute(): make_custom_fields()
23.8
64
0.831933
16
119
5.875
0.625
0.212766
0.340426
0
0
0
0
0
0
0
0
0
0.109244
119
5
65
23.8
0.886792
0
0
0
0
0
0
0
0
0
0
0
0
1
0.25
true
0
0.5
0
0.75
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
0
1
0
1
0
0
8
1d30d602b1eb3c568e078000c5717788781cd919
45,572
py
Python
sdk/python/pulumi_aws/glue/catalog_table.py
chivandikwa/pulumi-aws
19c08bf9dcb90544450ffa4eec7bf6751058fde2
[ "ECL-2.0", "Apache-2.0" ]
1
2021-11-10T16:33:40.000Z
2021-11-10T16:33:40.000Z
sdk/python/pulumi_aws/glue/catalog_table.py
chivandikwa/pulumi-aws
19c08bf9dcb90544450ffa4eec7bf6751058fde2
[ "ECL-2.0", "Apache-2.0" ]
null
null
null
sdk/python/pulumi_aws/glue/catalog_table.py
chivandikwa/pulumi-aws
19c08bf9dcb90544450ffa4eec7bf6751058fde2
[ "ECL-2.0", "Apache-2.0" ]
null
null
null
# coding=utf-8 # *** WARNING: this file was generated by the Pulumi Terraform Bridge (tfgen) Tool. *** # *** Do not edit by hand unless you're certain you know what you are doing! *** import warnings import pulumi import pulumi.runtime from typing import Any, Mapping, Optional, Sequence, Union, overload from .. import _utilities from . import outputs from ._inputs import * __all__ = ['CatalogTableArgs', 'CatalogTable'] @pulumi.input_type class CatalogTableArgs: def __init__(__self__, *, database_name: pulumi.Input[str], catalog_id: Optional[pulumi.Input[str]] = None, description: Optional[pulumi.Input[str]] = None, name: Optional[pulumi.Input[str]] = None, owner: Optional[pulumi.Input[str]] = None, parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None, partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]] = None, partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]] = None, retention: Optional[pulumi.Input[int]] = None, storage_descriptor: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']] = None, table_type: Optional[pulumi.Input[str]] = None, target_table: Optional[pulumi.Input['CatalogTableTargetTableArgs']] = None, view_expanded_text: Optional[pulumi.Input[str]] = None, view_original_text: Optional[pulumi.Input[str]] = None): """ The set of arguments for constructing a CatalogTable resource. :param pulumi.Input[str] database_name: Name of the catalog database that contains the target table. :param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides. :param pulumi.Input[str] description: Description of the table. :param pulumi.Input[str] name: Name of the target table. :param pulumi.Input[str] owner: Owner of the table. :param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form. :param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below. :param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below. :param pulumi.Input[int] retention: Retention time for this table. :param pulumi.Input['CatalogTableStorageDescriptorArgs'] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below. :param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty. :param pulumi.Input['CatalogTableTargetTableArgs'] target_table: Configuration block of a target table for resource linking. See `target_table` below. :param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null. :param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null. """ pulumi.set(__self__, "database_name", database_name) if catalog_id is not None: pulumi.set(__self__, "catalog_id", catalog_id) if description is not None: pulumi.set(__self__, "description", description) if name is not None: pulumi.set(__self__, "name", name) if owner is not None: pulumi.set(__self__, "owner", owner) if parameters is not None: pulumi.set(__self__, "parameters", parameters) if partition_indices is not None: pulumi.set(__self__, "partition_indices", partition_indices) if partition_keys is not None: pulumi.set(__self__, "partition_keys", partition_keys) if retention is not None: pulumi.set(__self__, "retention", retention) if storage_descriptor is not None: pulumi.set(__self__, "storage_descriptor", storage_descriptor) if table_type is not None: pulumi.set(__self__, "table_type", table_type) if target_table is not None: pulumi.set(__self__, "target_table", target_table) if view_expanded_text is not None: pulumi.set(__self__, "view_expanded_text", view_expanded_text) if view_original_text is not None: pulumi.set(__self__, "view_original_text", view_original_text) @property @pulumi.getter(name="databaseName") def database_name(self) -> pulumi.Input[str]: """ Name of the catalog database that contains the target table. """ return pulumi.get(self, "database_name") @database_name.setter def database_name(self, value: pulumi.Input[str]): pulumi.set(self, "database_name", value) @property @pulumi.getter(name="catalogId") def catalog_id(self) -> Optional[pulumi.Input[str]]: """ ID of the Data Catalog in which the table resides. """ return pulumi.get(self, "catalog_id") @catalog_id.setter def catalog_id(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "catalog_id", value) @property @pulumi.getter def description(self) -> Optional[pulumi.Input[str]]: """ Description of the table. """ return pulumi.get(self, "description") @description.setter def description(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "description", value) @property @pulumi.getter def name(self) -> Optional[pulumi.Input[str]]: """ Name of the target table. """ return pulumi.get(self, "name") @name.setter def name(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "name", value) @property @pulumi.getter def owner(self) -> Optional[pulumi.Input[str]]: """ Owner of the table. """ return pulumi.get(self, "owner") @owner.setter def owner(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "owner", value) @property @pulumi.getter def parameters(self) -> Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]: """ Map of initialization parameters for the SerDe, in key-value form. """ return pulumi.get(self, "parameters") @parameters.setter def parameters(self, value: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]): pulumi.set(self, "parameters", value) @property @pulumi.getter(name="partitionIndices") def partition_indices(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]: """ Configuration block for a maximum of 3 partition indexes. See `partition_index` below. """ return pulumi.get(self, "partition_indices") @partition_indices.setter def partition_indices(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]): pulumi.set(self, "partition_indices", value) @property @pulumi.getter(name="partitionKeys") def partition_keys(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]: """ Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below. """ return pulumi.get(self, "partition_keys") @partition_keys.setter def partition_keys(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]): pulumi.set(self, "partition_keys", value) @property @pulumi.getter def retention(self) -> Optional[pulumi.Input[int]]: """ Retention time for this table. """ return pulumi.get(self, "retention") @retention.setter def retention(self, value: Optional[pulumi.Input[int]]): pulumi.set(self, "retention", value) @property @pulumi.getter(name="storageDescriptor") def storage_descriptor(self) -> Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]: """ Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below. """ return pulumi.get(self, "storage_descriptor") @storage_descriptor.setter def storage_descriptor(self, value: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]): pulumi.set(self, "storage_descriptor", value) @property @pulumi.getter(name="tableType") def table_type(self) -> Optional[pulumi.Input[str]]: """ Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty. """ return pulumi.get(self, "table_type") @table_type.setter def table_type(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "table_type", value) @property @pulumi.getter(name="targetTable") def target_table(self) -> Optional[pulumi.Input['CatalogTableTargetTableArgs']]: """ Configuration block of a target table for resource linking. See `target_table` below. """ return pulumi.get(self, "target_table") @target_table.setter def target_table(self, value: Optional[pulumi.Input['CatalogTableTargetTableArgs']]): pulumi.set(self, "target_table", value) @property @pulumi.getter(name="viewExpandedText") def view_expanded_text(self) -> Optional[pulumi.Input[str]]: """ If the table is a view, the expanded text of the view; otherwise null. """ return pulumi.get(self, "view_expanded_text") @view_expanded_text.setter def view_expanded_text(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "view_expanded_text", value) @property @pulumi.getter(name="viewOriginalText") def view_original_text(self) -> Optional[pulumi.Input[str]]: """ If the table is a view, the original text of the view; otherwise null. """ return pulumi.get(self, "view_original_text") @view_original_text.setter def view_original_text(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "view_original_text", value) @pulumi.input_type class _CatalogTableState: def __init__(__self__, *, arn: Optional[pulumi.Input[str]] = None, catalog_id: Optional[pulumi.Input[str]] = None, database_name: Optional[pulumi.Input[str]] = None, description: Optional[pulumi.Input[str]] = None, name: Optional[pulumi.Input[str]] = None, owner: Optional[pulumi.Input[str]] = None, parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None, partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]] = None, partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]] = None, retention: Optional[pulumi.Input[int]] = None, storage_descriptor: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']] = None, table_type: Optional[pulumi.Input[str]] = None, target_table: Optional[pulumi.Input['CatalogTableTargetTableArgs']] = None, view_expanded_text: Optional[pulumi.Input[str]] = None, view_original_text: Optional[pulumi.Input[str]] = None): """ Input properties used for looking up and filtering CatalogTable resources. :param pulumi.Input[str] arn: The ARN of the Glue Table. :param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides. :param pulumi.Input[str] database_name: Name of the catalog database that contains the target table. :param pulumi.Input[str] description: Description of the table. :param pulumi.Input[str] name: Name of the target table. :param pulumi.Input[str] owner: Owner of the table. :param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form. :param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below. :param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below. :param pulumi.Input[int] retention: Retention time for this table. :param pulumi.Input['CatalogTableStorageDescriptorArgs'] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below. :param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty. :param pulumi.Input['CatalogTableTargetTableArgs'] target_table: Configuration block of a target table for resource linking. See `target_table` below. :param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null. :param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null. """ if arn is not None: pulumi.set(__self__, "arn", arn) if catalog_id is not None: pulumi.set(__self__, "catalog_id", catalog_id) if database_name is not None: pulumi.set(__self__, "database_name", database_name) if description is not None: pulumi.set(__self__, "description", description) if name is not None: pulumi.set(__self__, "name", name) if owner is not None: pulumi.set(__self__, "owner", owner) if parameters is not None: pulumi.set(__self__, "parameters", parameters) if partition_indices is not None: pulumi.set(__self__, "partition_indices", partition_indices) if partition_keys is not None: pulumi.set(__self__, "partition_keys", partition_keys) if retention is not None: pulumi.set(__self__, "retention", retention) if storage_descriptor is not None: pulumi.set(__self__, "storage_descriptor", storage_descriptor) if table_type is not None: pulumi.set(__self__, "table_type", table_type) if target_table is not None: pulumi.set(__self__, "target_table", target_table) if view_expanded_text is not None: pulumi.set(__self__, "view_expanded_text", view_expanded_text) if view_original_text is not None: pulumi.set(__self__, "view_original_text", view_original_text) @property @pulumi.getter def arn(self) -> Optional[pulumi.Input[str]]: """ The ARN of the Glue Table. """ return pulumi.get(self, "arn") @arn.setter def arn(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "arn", value) @property @pulumi.getter(name="catalogId") def catalog_id(self) -> Optional[pulumi.Input[str]]: """ ID of the Data Catalog in which the table resides. """ return pulumi.get(self, "catalog_id") @catalog_id.setter def catalog_id(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "catalog_id", value) @property @pulumi.getter(name="databaseName") def database_name(self) -> Optional[pulumi.Input[str]]: """ Name of the catalog database that contains the target table. """ return pulumi.get(self, "database_name") @database_name.setter def database_name(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "database_name", value) @property @pulumi.getter def description(self) -> Optional[pulumi.Input[str]]: """ Description of the table. """ return pulumi.get(self, "description") @description.setter def description(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "description", value) @property @pulumi.getter def name(self) -> Optional[pulumi.Input[str]]: """ Name of the target table. """ return pulumi.get(self, "name") @name.setter def name(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "name", value) @property @pulumi.getter def owner(self) -> Optional[pulumi.Input[str]]: """ Owner of the table. """ return pulumi.get(self, "owner") @owner.setter def owner(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "owner", value) @property @pulumi.getter def parameters(self) -> Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]: """ Map of initialization parameters for the SerDe, in key-value form. """ return pulumi.get(self, "parameters") @parameters.setter def parameters(self, value: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]): pulumi.set(self, "parameters", value) @property @pulumi.getter(name="partitionIndices") def partition_indices(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]: """ Configuration block for a maximum of 3 partition indexes. See `partition_index` below. """ return pulumi.get(self, "partition_indices") @partition_indices.setter def partition_indices(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]): pulumi.set(self, "partition_indices", value) @property @pulumi.getter(name="partitionKeys") def partition_keys(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]: """ Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below. """ return pulumi.get(self, "partition_keys") @partition_keys.setter def partition_keys(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]): pulumi.set(self, "partition_keys", value) @property @pulumi.getter def retention(self) -> Optional[pulumi.Input[int]]: """ Retention time for this table. """ return pulumi.get(self, "retention") @retention.setter def retention(self, value: Optional[pulumi.Input[int]]): pulumi.set(self, "retention", value) @property @pulumi.getter(name="storageDescriptor") def storage_descriptor(self) -> Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]: """ Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below. """ return pulumi.get(self, "storage_descriptor") @storage_descriptor.setter def storage_descriptor(self, value: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]): pulumi.set(self, "storage_descriptor", value) @property @pulumi.getter(name="tableType") def table_type(self) -> Optional[pulumi.Input[str]]: """ Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty. """ return pulumi.get(self, "table_type") @table_type.setter def table_type(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "table_type", value) @property @pulumi.getter(name="targetTable") def target_table(self) -> Optional[pulumi.Input['CatalogTableTargetTableArgs']]: """ Configuration block of a target table for resource linking. See `target_table` below. """ return pulumi.get(self, "target_table") @target_table.setter def target_table(self, value: Optional[pulumi.Input['CatalogTableTargetTableArgs']]): pulumi.set(self, "target_table", value) @property @pulumi.getter(name="viewExpandedText") def view_expanded_text(self) -> Optional[pulumi.Input[str]]: """ If the table is a view, the expanded text of the view; otherwise null. """ return pulumi.get(self, "view_expanded_text") @view_expanded_text.setter def view_expanded_text(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "view_expanded_text", value) @property @pulumi.getter(name="viewOriginalText") def view_original_text(self) -> Optional[pulumi.Input[str]]: """ If the table is a view, the original text of the view; otherwise null. """ return pulumi.get(self, "view_original_text") @view_original_text.setter def view_original_text(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "view_original_text", value) class CatalogTable(pulumi.CustomResource): @overload def __init__(__self__, resource_name: str, opts: Optional[pulumi.ResourceOptions] = None, catalog_id: Optional[pulumi.Input[str]] = None, database_name: Optional[pulumi.Input[str]] = None, description: Optional[pulumi.Input[str]] = None, name: Optional[pulumi.Input[str]] = None, owner: Optional[pulumi.Input[str]] = None, parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None, partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]]] = None, partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]]] = None, retention: Optional[pulumi.Input[int]] = None, storage_descriptor: Optional[pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']]] = None, table_type: Optional[pulumi.Input[str]] = None, target_table: Optional[pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']]] = None, view_expanded_text: Optional[pulumi.Input[str]] = None, view_original_text: Optional[pulumi.Input[str]] = None, __props__=None): """ Provides a Glue Catalog Table Resource. You can refer to the [Glue Developer Guide](http://docs.aws.amazon.com/glue/latest/dg/populate-data-catalog.html) for a full explanation of the Glue Data Catalog functionality. ## Example Usage ### Basic Table ```python import pulumi import pulumi_aws as aws aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable", database_name="MyCatalogDatabase", name="MyCatalogTable") ``` ### Parquet Table for Athena ```python import pulumi import pulumi_aws as aws aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable", database_name="MyCatalogDatabase", name="MyCatalogTable", parameters={ "EXTERNAL": "TRUE", "parquet.compression": "SNAPPY", }, storage_descriptor=aws.glue.CatalogTableStorageDescriptorArgs( columns=[ aws.glue.CatalogTableStorageDescriptorColumnArgs( name="my_string", type="string", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( name="my_double", type="double", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( comment="", name="my_date", type="date", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( comment="", name="my_bigint", type="bigint", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( comment="", name="my_struct", type="struct<my_nested_string:string>", ), ], input_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat", location="s3://my-bucket/event-streams/my-stream", output_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat", ser_de_info=aws.glue.CatalogTableStorageDescriptorSerDeInfoArgs( name="my-stream", parameters={ "serialization.format": "1", }, serialization_library="org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe", ), ), table_type="EXTERNAL_TABLE") ``` ## Import Glue Tables can be imported with their catalog ID (usually AWS account ID), database name, and table name, e.g., ```sh $ pulumi import aws:glue/catalogTable:CatalogTable MyTable 123456789012:MyDatabase:MyTable ``` :param str resource_name: The name of the resource. :param pulumi.ResourceOptions opts: Options for the resource. :param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides. :param pulumi.Input[str] database_name: Name of the catalog database that contains the target table. :param pulumi.Input[str] description: Description of the table. :param pulumi.Input[str] name: Name of the target table. :param pulumi.Input[str] owner: Owner of the table. :param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below. :param pulumi.Input[int] retention: Retention time for this table. :param pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below. :param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty. :param pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']] target_table: Configuration block of a target table for resource linking. See `target_table` below. :param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null. :param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null. """ ... @overload def __init__(__self__, resource_name: str, args: CatalogTableArgs, opts: Optional[pulumi.ResourceOptions] = None): """ Provides a Glue Catalog Table Resource. You can refer to the [Glue Developer Guide](http://docs.aws.amazon.com/glue/latest/dg/populate-data-catalog.html) for a full explanation of the Glue Data Catalog functionality. ## Example Usage ### Basic Table ```python import pulumi import pulumi_aws as aws aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable", database_name="MyCatalogDatabase", name="MyCatalogTable") ``` ### Parquet Table for Athena ```python import pulumi import pulumi_aws as aws aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable", database_name="MyCatalogDatabase", name="MyCatalogTable", parameters={ "EXTERNAL": "TRUE", "parquet.compression": "SNAPPY", }, storage_descriptor=aws.glue.CatalogTableStorageDescriptorArgs( columns=[ aws.glue.CatalogTableStorageDescriptorColumnArgs( name="my_string", type="string", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( name="my_double", type="double", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( comment="", name="my_date", type="date", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( comment="", name="my_bigint", type="bigint", ), aws.glue.CatalogTableStorageDescriptorColumnArgs( comment="", name="my_struct", type="struct<my_nested_string:string>", ), ], input_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat", location="s3://my-bucket/event-streams/my-stream", output_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat", ser_de_info=aws.glue.CatalogTableStorageDescriptorSerDeInfoArgs( name="my-stream", parameters={ "serialization.format": "1", }, serialization_library="org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe", ), ), table_type="EXTERNAL_TABLE") ``` ## Import Glue Tables can be imported with their catalog ID (usually AWS account ID), database name, and table name, e.g., ```sh $ pulumi import aws:glue/catalogTable:CatalogTable MyTable 123456789012:MyDatabase:MyTable ``` :param str resource_name: The name of the resource. :param CatalogTableArgs args: The arguments to use to populate this resource's properties. :param pulumi.ResourceOptions opts: Options for the resource. """ ... def __init__(__self__, resource_name: str, *args, **kwargs): resource_args, opts = _utilities.get_resource_args_opts(CatalogTableArgs, pulumi.ResourceOptions, *args, **kwargs) if resource_args is not None: __self__._internal_init(resource_name, opts, **resource_args.__dict__) else: __self__._internal_init(resource_name, *args, **kwargs) def _internal_init(__self__, resource_name: str, opts: Optional[pulumi.ResourceOptions] = None, catalog_id: Optional[pulumi.Input[str]] = None, database_name: Optional[pulumi.Input[str]] = None, description: Optional[pulumi.Input[str]] = None, name: Optional[pulumi.Input[str]] = None, owner: Optional[pulumi.Input[str]] = None, parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None, partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]]] = None, partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]]] = None, retention: Optional[pulumi.Input[int]] = None, storage_descriptor: Optional[pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']]] = None, table_type: Optional[pulumi.Input[str]] = None, target_table: Optional[pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']]] = None, view_expanded_text: Optional[pulumi.Input[str]] = None, view_original_text: Optional[pulumi.Input[str]] = None, __props__=None): if opts is None: opts = pulumi.ResourceOptions() if not isinstance(opts, pulumi.ResourceOptions): raise TypeError('Expected resource options to be a ResourceOptions instance') if opts.version is None: opts.version = _utilities.get_version() if opts.id is None: if __props__ is not None: raise TypeError('__props__ is only valid when passed in combination with a valid opts.id to get an existing resource') __props__ = CatalogTableArgs.__new__(CatalogTableArgs) __props__.__dict__["catalog_id"] = catalog_id if database_name is None and not opts.urn: raise TypeError("Missing required property 'database_name'") __props__.__dict__["database_name"] = database_name __props__.__dict__["description"] = description __props__.__dict__["name"] = name __props__.__dict__["owner"] = owner __props__.__dict__["parameters"] = parameters __props__.__dict__["partition_indices"] = partition_indices __props__.__dict__["partition_keys"] = partition_keys __props__.__dict__["retention"] = retention __props__.__dict__["storage_descriptor"] = storage_descriptor __props__.__dict__["table_type"] = table_type __props__.__dict__["target_table"] = target_table __props__.__dict__["view_expanded_text"] = view_expanded_text __props__.__dict__["view_original_text"] = view_original_text __props__.__dict__["arn"] = None super(CatalogTable, __self__).__init__( 'aws:glue/catalogTable:CatalogTable', resource_name, __props__, opts) @staticmethod def get(resource_name: str, id: pulumi.Input[str], opts: Optional[pulumi.ResourceOptions] = None, arn: Optional[pulumi.Input[str]] = None, catalog_id: Optional[pulumi.Input[str]] = None, database_name: Optional[pulumi.Input[str]] = None, description: Optional[pulumi.Input[str]] = None, name: Optional[pulumi.Input[str]] = None, owner: Optional[pulumi.Input[str]] = None, parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None, partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]]] = None, partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]]] = None, retention: Optional[pulumi.Input[int]] = None, storage_descriptor: Optional[pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']]] = None, table_type: Optional[pulumi.Input[str]] = None, target_table: Optional[pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']]] = None, view_expanded_text: Optional[pulumi.Input[str]] = None, view_original_text: Optional[pulumi.Input[str]] = None) -> 'CatalogTable': """ Get an existing CatalogTable resource's state with the given name, id, and optional extra properties used to qualify the lookup. :param str resource_name: The unique name of the resulting resource. :param pulumi.Input[str] id: The unique provider ID of the resource to lookup. :param pulumi.ResourceOptions opts: Options for the resource. :param pulumi.Input[str] arn: The ARN of the Glue Table. :param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides. :param pulumi.Input[str] database_name: Name of the catalog database that contains the target table. :param pulumi.Input[str] description: Description of the table. :param pulumi.Input[str] name: Name of the target table. :param pulumi.Input[str] owner: Owner of the table. :param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below. :param pulumi.Input[int] retention: Retention time for this table. :param pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below. :param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty. :param pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']] target_table: Configuration block of a target table for resource linking. See `target_table` below. :param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null. :param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null. """ opts = pulumi.ResourceOptions.merge(opts, pulumi.ResourceOptions(id=id)) __props__ = _CatalogTableState.__new__(_CatalogTableState) __props__.__dict__["arn"] = arn __props__.__dict__["catalog_id"] = catalog_id __props__.__dict__["database_name"] = database_name __props__.__dict__["description"] = description __props__.__dict__["name"] = name __props__.__dict__["owner"] = owner __props__.__dict__["parameters"] = parameters __props__.__dict__["partition_indices"] = partition_indices __props__.__dict__["partition_keys"] = partition_keys __props__.__dict__["retention"] = retention __props__.__dict__["storage_descriptor"] = storage_descriptor __props__.__dict__["table_type"] = table_type __props__.__dict__["target_table"] = target_table __props__.__dict__["view_expanded_text"] = view_expanded_text __props__.__dict__["view_original_text"] = view_original_text return CatalogTable(resource_name, opts=opts, __props__=__props__) @property @pulumi.getter def arn(self) -> pulumi.Output[str]: """ The ARN of the Glue Table. """ return pulumi.get(self, "arn") @property @pulumi.getter(name="catalogId") def catalog_id(self) -> pulumi.Output[str]: """ ID of the Data Catalog in which the table resides. """ return pulumi.get(self, "catalog_id") @property @pulumi.getter(name="databaseName") def database_name(self) -> pulumi.Output[str]: """ Name of the catalog database that contains the target table. """ return pulumi.get(self, "database_name") @property @pulumi.getter def description(self) -> pulumi.Output[Optional[str]]: """ Description of the table. """ return pulumi.get(self, "description") @property @pulumi.getter def name(self) -> pulumi.Output[str]: """ Name of the target table. """ return pulumi.get(self, "name") @property @pulumi.getter def owner(self) -> pulumi.Output[Optional[str]]: """ Owner of the table. """ return pulumi.get(self, "owner") @property @pulumi.getter def parameters(self) -> pulumi.Output[Optional[Mapping[str, str]]]: """ Map of initialization parameters for the SerDe, in key-value form. """ return pulumi.get(self, "parameters") @property @pulumi.getter(name="partitionIndices") def partition_indices(self) -> pulumi.Output[Sequence['outputs.CatalogTablePartitionIndex']]: """ Configuration block for a maximum of 3 partition indexes. See `partition_index` below. """ return pulumi.get(self, "partition_indices") @property @pulumi.getter(name="partitionKeys") def partition_keys(self) -> pulumi.Output[Optional[Sequence['outputs.CatalogTablePartitionKey']]]: """ Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below. """ return pulumi.get(self, "partition_keys") @property @pulumi.getter def retention(self) -> pulumi.Output[Optional[int]]: """ Retention time for this table. """ return pulumi.get(self, "retention") @property @pulumi.getter(name="storageDescriptor") def storage_descriptor(self) -> pulumi.Output[Optional['outputs.CatalogTableStorageDescriptor']]: """ Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below. """ return pulumi.get(self, "storage_descriptor") @property @pulumi.getter(name="tableType") def table_type(self) -> pulumi.Output[Optional[str]]: """ Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty. """ return pulumi.get(self, "table_type") @property @pulumi.getter(name="targetTable") def target_table(self) -> pulumi.Output[Optional['outputs.CatalogTableTargetTable']]: """ Configuration block of a target table for resource linking. See `target_table` below. """ return pulumi.get(self, "target_table") @property @pulumi.getter(name="viewExpandedText") def view_expanded_text(self) -> pulumi.Output[Optional[str]]: """ If the table is a view, the expanded text of the view; otherwise null. """ return pulumi.get(self, "view_expanded_text") @property @pulumi.getter(name="viewOriginalText") def view_original_text(self) -> pulumi.Output[Optional[str]]: """ If the table is a view, the original text of the view; otherwise null. """ return pulumi.get(self, "view_original_text")
48.792291
394
0.652221
5,084
45,572
5.662274
0.055468
0.088269
0.083823
0.055789
0.931011
0.920798
0.910237
0.906937
0.900024
0.88533
0
0.001043
0.242693
45,572
933
395
48.844587
0.833073
0.388001
0
0.848861
1
0
0.133497
0.048811
0
0
0
0
0
1
0.165631
false
0.00207
0.014493
0
0.279503
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
1d69010b3ae613fd90189fb30cd2f23e4de6f987
210,116
py
Python
PictureGuard-master/guard.py
Zusyaku/Termux-And-Lali-Linux-V2
b1a1b0841d22d4bf2cc7932b72716d55f070871e
[ "Apache-2.0" ]
2
2021-11-17T03:35:03.000Z
2021-12-08T06:00:31.000Z
PictureGuard-master/guard.py
Zusyaku/Termux-And-Lali-Linux-V2
b1a1b0841d22d4bf2cc7932b72716d55f070871e
[ "Apache-2.0" ]
null
null
null
PictureGuard-master/guard.py
Zusyaku/Termux-And-Lali-Linux-V2
b1a1b0841d22d4bf2cc7932b72716d55f070871e
[ "Apache-2.0" ]
2
2021-11-05T18:07:48.000Z
2022-02-24T21:25:07.000Z
# coding=utf-8 # Record Teroooosss d=['yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy'];exec("".join([chr(len(i)) for i in d]))
26,264.5
210,075
0.954911
2,375
210,116
84.480842
0.037053
0.001874
0.00324
0.004406
0.010536
0.005153
0
0
0
0
0
0.000005
0.011299
210,116
8
210,076
26,264.5
0.965818
0.000143
0
0
0
0
0.954827
0.954685
0
1
0
0
0
1
0
false
0
0
0
0
0
0
0
1
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
0
0
0
0
0
0
1
1
null
1
0
0
0
0
0
0
0
0
0
0
0
0
7
1d9a730a955568d058fd6b2eaf350fd0a752ae59
152
py
Python
Desktop10.4.1/python/gdalnumeric.py
Esri/raster2gpkg
d10ebb3038786ecddf41072ba5b2c49baad97c5a
[ "Apache-2.0" ]
13
2015-11-18T18:26:34.000Z
2021-05-09T13:59:46.000Z
Desktop10.4.1/python/gdalnumeric.py
Esri/raster2gpkg
d10ebb3038786ecddf41072ba5b2c49baad97c5a
[ "Apache-2.0" ]
4
2015-12-26T03:16:25.000Z
2016-08-23T17:18:11.000Z
Desktop10.4.1/python/gdalnumeric.py
Esri/raster2gpkg
d10ebb3038786ecddf41072ba5b2c49baad97c5a
[ "Apache-2.0" ]
5
2015-10-22T13:28:53.000Z
2020-12-12T13:07:52.000Z
# import osgeo.gdal_array as a convenience from osgeo.gdal import deprecation_warn deprecation_warn('gdalnumeric') from osgeo.gdal_array import *
25.333333
43
0.802632
21
152
5.619048
0.52381
0.228814
0.237288
0
0
0
0
0
0
0
0
0
0.138158
152
5
44
30.4
0.900763
0.263158
0
0
0
0
0.104762
0
0
0
0
0
0
1
0
true
0
0.666667
0
0.666667
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
d5215fce3b145a62c0400dabcafb5bc8d994be89
2,097
py
Python
test/bitbakelayers_test_layers_test.py
shift-left-test/meta-shift
effce9bea894f990703cc047157e3f30d53d9365
[ "MIT" ]
2
2022-01-19T02:39:43.000Z
2022-02-07T01:58:17.000Z
test/bitbakelayers_test_layers_test.py
shift-left-test/meta-shift
effce9bea894f990703cc047157e3f30d53d9365
[ "MIT" ]
null
null
null
test/bitbakelayers_test_layers_test.py
shift-left-test/meta-shift
effce9bea894f990703cc047157e3f30d53d9365
[ "MIT" ]
null
null
null
#-*- coding: utf-8 -*- #!/usr/bin/python3 """ Copyright (c) 2020 LG Electronics Inc. SPDX-License-Identifier: MIT """ import pytest import re def test_mutually_exclusive_options(release_build): assert not release_build.shell.execute("bitbake-layers test-layers --show --add").stderr.empty() assert not release_build.shell.execute("bitbake-layers test-layers --show --remove").stderr.empty() assert not release_build.shell.execute("bitbake-layers test-layers --add --remove").stderr.empty() def test_default_action(release_build): o = release_build.shell.execute("bitbake-layers test-layers") assert o.stdout.contains("meta-sample-test") def test_show_layers(release_build): o = release_build.shell.execute("bitbake-layers test-layers --show") assert o.stdout.contains("meta-sample-test") def test_show_layers_with_depth(release_build): o = release_build.shell.execute("bitbake-layers test-layers --show --depth 0") assert not o.stdout.contains("meta-sample-test") def test_show_with_basepath(release_build): o = release_build.shell.execute("bitbake-layers test-layers --show --basepath /dev/null") assert not o.stdout.contains("meta-sample-test") def test_add_layers(release_build): assert not release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test") release_build.shell.execute("bitbake-layers test-layers --add") assert release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test") release_build.shell.execute("bitbake-layers test-layers --remove") assert not release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test") def test_remove_layers(release_build): release_build.shell.execute("bitbake-layers test-layers --add") assert release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test") release_build.shell.execute("bitbake-layers test-layers --remove") assert not release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test")
40.326923
108
0.75918
291
2,097
5.329897
0.171821
0.17795
0.175371
0.247582
0.839458
0.839458
0.839458
0.834945
0.834945
0.830432
0
0.00371
0.100143
2,097
51
109
41.117647
0.81823
0.050548
0
0.448276
0
0
0.346115
0
0
0
0
0
0.413793
1
0.241379
false
0
0.068966
0
0.310345
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
1
0
1
0
0
0
0
0
0
0
9
d535e5fe2de1b1c18f91f62e6c750545ff88c867
213
py
Python
project/module_name/utils/base_util.py
tys-hiroshi/study_programming_py
562f93043ebf6ebb1b76b050aa85609208cc4caf
[ "MIT" ]
null
null
null
project/module_name/utils/base_util.py
tys-hiroshi/study_programming_py
562f93043ebf6ebb1b76b050aa85609208cc4caf
[ "MIT" ]
null
null
null
project/module_name/utils/base_util.py
tys-hiroshi/study_programming_py
562f93043ebf6ebb1b76b050aa85609208cc4caf
[ "MIT" ]
null
null
null
import base64 class BaseUtil: @staticmethod def encode(string: str): return base64.b64encode(string.encode()) @staticmethod def decode(string: str): return base64.b64decode(string)
23.666667
48
0.680751
23
213
6.304348
0.565217
0.206897
0.206897
0.289655
0
0
0
0
0
0
0
0.060606
0.225352
213
9
49
23.666667
0.818182
0
0
0.25
0
0
0
0
0
0
0
0
0
1
0.25
false
0
0.125
0.25
0.75
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
1
0
0
8
d556f375de1dff86fff69105147b7b7aa3294b1b
4,275
py
Python
filemapper/check/checkanimeextension.py
AsiganTheSunk/python-multimedia-filemapper
5daa07c51f3e85df48a0c336633ac150687fe24c
[ "Xnet", "X11" ]
null
null
null
filemapper/check/checkanimeextension.py
AsiganTheSunk/python-multimedia-filemapper
5daa07c51f3e85df48a0c336633ac150687fe24c
[ "Xnet", "X11" ]
null
null
null
filemapper/check/checkanimeextension.py
AsiganTheSunk/python-multimedia-filemapper
5daa07c51f3e85df48a0c336633ac150687fe24c
[ "Xnet", "X11" ]
null
null
null
import re class CheckAnimeExtension(): def __init__(self): self.name = 'CheckAnimeExtension' return # TODO: Ver que hacer con esta funcion, que hace practicamente lo # mismo que la normal def check_anime_show2(self, stream, debug=False): ''' This function checks if the stream it's a anime file returning True, otherwise False :param stream: It represents the input string you're parsing :param debug: It represents the debug status of the function, default it's False :return: BOOLEAN ''' status = False _header_pattern = ['(^\[(\w+(\s|\-|.?))+\])'] _tail_pattern = ['(\-)(.?)\d{1,3}|(x|E(pisode)?)(\s|\.|\-)?\d{1,3}'] try: re.search(_header_pattern[0], stream, re.IGNORECASE).group(0) re.search(_tail_pattern[0], stream, re.IGNORECASE).group(0) except AttributeError: return status else: status = True if debug: print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name, stream=stream, status=str(status)) return status def check_anime_show(self, stream, debug=False): ''' This function checks if the stream it's a anime show returning True, otherwise False :param stream: It represents the input string you're parsing :param debug: It represents the debug status of the function, default it's False :return: BOOLEAN ''' status = False try: re.search('\[(\w+-?)*\](\s\w+)*\s(.?\s)?(\d{0,3}|E\w{0,6}.?\d{0,3})\s\(?\[?(\d{3,4}p|.*)\)?\]?(.mp4|.mkv)', stream, re.IGNORECASE).group(0) except AttributeError: try: re.search('^\[(\w+(\s|\-|.?))+\]', stream, re.IGNORECASE).group(0) re.search('\-(.?)\d{1,3}|(x|E(pisode)?)(\s|\.|\-)?\d{1,3}', stream, re.IGNORECASE).group(0) re.search('\.mp4|\.mkv', stream, re.IGNORECASE).group(0) except AttributeError: return status else: status = True if debug: print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name, stream=stream, status=str(status)) return status else: status = True if debug: print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name, stream=stream, status=str(status)) return status def check_anime_directory(self, stream, debug=False): ''' This function checks if the stream it's anime directory returning True, otherwise False :param stream: It represents the input string you're parsing :param debug: It represents the debug status of the function, default it's False :return: BOOLEAN ''' status = False _header_pattern = ['^\[(\w+(\s|\-|.?))+\]'] _tail_pattern = ['\-(.?)\d{1,3}|(x|E(pisode)?)(\s|\.|\-)?\d{1,3}'] try: # regex.search('\[(\w+-?)*\](\s\w+)*\s(.?\s)?(\d{0,3}|E\w{0,6}.?\d{0,3})\s\(?\[?(\d{3,4}p|.*)\)?\]?', path, regex.IGNORECASE).group(0) # regex.search('\[(\w+!?)\]|\[(\w+\-?)*\](\s\w+)*\s(.?\s)?(\d{0,3}|E\w{0,6}.?\d{0,3})\s\(?\[?(\d{3,4}p|.*)\)?\]?', path, regex.IGNORECASE).group(0) re.search(_header_pattern[0], stream, re.IGNORECASE).group(0) re.search(_tail_pattern[0], stream, re.IGNORECASE).group(0) except AttributeError as e: return status else: status = True if debug: print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name, stream=stream, status=str(status)) return status
46.467391
159
0.492865
481
4,275
4.309771
0.172557
0.072359
0.077183
0.08876
0.895803
0.88712
0.88712
0.856247
0.856247
0.829233
0
0.018861
0.34269
4,275
91
160
46.978022
0.718861
0.265263
0
0.694915
0
0.067797
0.175373
0.101425
0
0
0
0.010989
0
1
0.067797
false
0
0.016949
0
0.237288
0.067797
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
1
0
0
0
0
0
0
0
0
0
0
7
d56f96ae0ee5e2eab745eb7e24bbe43f02a0da07
49
py
Python
backend/app/views/example_scenario/__init__.py
Edinburgh-Genome-Foundry/CAB
b8abbae20038012cd2f44af26be157fd37ae83c2
[ "MIT" ]
19
2018-06-22T11:42:28.000Z
2022-02-03T17:04:48.000Z
backend/app/views/example_scenario/__init__.py
Edinburgh-Genome-Foundry/CUBA
d57565951ead619ef9263e8b356b451001fb910f
[ "MIT" ]
9
2020-06-05T17:54:54.000Z
2022-02-12T12:03:19.000Z
backend/app/views/example_scenario/__init__.py
Edinburgh-Genome-Foundry/CUBA
d57565951ead619ef9263e8b356b451001fb910f
[ "MIT" ]
3
2018-10-18T13:08:50.000Z
2020-08-17T14:09:46.000Z
from .ExampleScenario import ExampleScenarioView
24.5
48
0.897959
4
49
11
1
0
0
0
0
0
0
0
0
0
0
0
0.081633
49
1
49
49
0.977778
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
1
1
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
d58f20f99c7199bc634e5537479230d65828b4fa
13,270
py
Python
kolibri/logger/test/test_api.py
dylanmccall/kolibri
34a0fac0920106524092937b8a44ef07701e9fd6
[ "MIT" ]
1
2021-11-09T11:30:12.000Z
2021-11-09T11:30:12.000Z
kolibri/logger/test/test_api.py
dylanmccall/kolibri
34a0fac0920106524092937b8a44ef07701e9fd6
[ "MIT" ]
1
2016-09-13T19:02:03.000Z
2016-09-21T17:21:07.000Z
kolibri/logger/test/test_api.py
dylanmccall/kolibri
34a0fac0920106524092937b8a44ef07701e9fd6
[ "MIT" ]
1
2020-05-21T18:17:55.000Z
2020-05-21T18:17:55.000Z
""" Tests that ensure the correct items are returned from api calls. Also tests whether the users with permissions can create logs. """ import csv import datetime import uuid from django.core.urlresolvers import reverse from rest_framework import status from rest_framework.test import APITestCase from kolibri.auth.models import DeviceOwner from .factory_logger import ( FacilityFactory, FacilityUserFactory, ContentSessionLogFactory, ContentSummaryLogFactory, ContentRatingLogFactory, UserSessionLogFactory, DUMMY_PASSWORD ) from ..models import ContentSessionLog, ContentSummaryLog, ContentRatingLog, UserSessionLog from ..serializers import ContentSessionLogSerializer, ContentSummaryLogSerializer, ContentRatingLogSerializer class ContentSessionLogAPITestCase(APITestCase): def setUp(self): # create DeviceOwner to pass the setup_wizard middleware check DeviceOwner.objects.create(username='test-device-owner', password=123) self.facility = FacilityFactory.create() self.admin = FacilityUserFactory.create(facility=self.facility) self.user = FacilityUserFactory.create(facility=self.facility) self.interaction_logs = [ContentSessionLogFactory.create(user=self.user) for _ in range(3)] self.facility.add_admin(self.admin) self.payload = {'user': self.user.pk, 'content_id': uuid.uuid4().hex, 'channel_id': uuid.uuid4().hex, 'kind': 'video', 'start_timestamp': str(datetime.datetime.now())} def test_contentsessionlog_list(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.get(reverse('contentsessionlog-list')) expected_count = ContentSessionLog.objects.count() self.assertEqual(len(response.data), expected_count) def test_contentsessionlog_detail(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) log_id = self.interaction_logs[0].id response = self.client.get(reverse('contentsessionlog-detail', kwargs={"pk": log_id})) log = ContentSessionLog.objects.get(pk=log_id) interaction_serializer = ContentSessionLogSerializer(log) self.assertEqual(response.data['content_id'], interaction_serializer.data['content_id']) def test_admin_can_create_contentsessionlog(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_learner_can_create_contentsessionlog(self): self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_anonymous_user_cannot_create_contentsessionlog_for_learner(self): response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN) def test_anonymous_user_can_create_contentsessionlog(self): del self.payload['user'] response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) class ContentSummaryLogAPITestCase(APITestCase): def setUp(self): # create DeviceOwner to pass the setup_wizard middleware check DeviceOwner.objects.create(username='test-device-owner', password=123) self.facility = FacilityFactory.create() self.admin = FacilityUserFactory.create(facility=self.facility) self.user = FacilityUserFactory.create(facility=self.facility) self.summary_logs = [ContentSummaryLogFactory.create(user=self.user) for _ in range(3)] self.facility.add_admin(self.admin) self.payload = {'user': self.user.pk, 'content_id': uuid.uuid4().hex, 'channel_id': uuid.uuid4().hex, 'kind': "video", 'start_timestamp': str(datetime.datetime.now())} def test_summarylog_list(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.get(reverse('contentsummarylog-list')) expected_count = ContentSummaryLog.objects.count() self.assertEqual(len(response.data), expected_count) def test_summarylog_detail(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) log_id = self.summary_logs[0].id response = self.client.get(reverse('contentsummarylog-detail', kwargs={"pk": log_id})) log = ContentSummaryLog.objects.get(pk=log_id) summary_serializer = ContentSummaryLogSerializer(log) self.assertEqual(response.data['content_id'], summary_serializer.data['content_id']) def test_admin_can_create_summarylog(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('contentsummarylog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_learner_can_create_summarylog(self): self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('contentsummarylog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_anonymous_user_cannot_create_summarylog_for_learner(self): response = self.client.post(reverse('contentsummarylog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN) class ContentRatingLogAPITestCase(APITestCase): def setUp(self): # create DeviceOwner to pass the setup_wizard middleware check DeviceOwner.objects.create(username='test-device-owner', password=123) self.facility = FacilityFactory.create() self.admin = FacilityUserFactory.create(facility=self.facility) self.user = FacilityUserFactory.create(facility=self.facility) self.rating_logs = [ContentRatingLogFactory.create(user=self.user) for _ in range(3)] self.facility.add_admin(self.admin) self.payload = {'user': self.user.pk, 'content_id': uuid.uuid4().hex, 'channel_id': uuid.uuid4().hex} def test_ratinglog_list(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.get(reverse('contentratinglog-list')) expected_count = ContentRatingLog.objects.count() self.assertEqual(len(response.data), expected_count) def test_ratinglog_detail(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) log_id = self.rating_logs[0].id response = self.client.get(reverse('contentratinglog-detail', kwargs={"pk": log_id})) log = ContentRatingLog.objects.get(pk=log_id) rating_serializer = ContentRatingLogSerializer(log) self.assertEqual(response.data['content_id'], rating_serializer.data['content_id']) def test_admin_can_create_ratinglog(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_learner_can_create_ratinglog(self): self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_anonymous_user_cannot_create_ratinglog_for_learner(self): response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN) def test_anonymous_user_can_create_ratinglog(self): del self.payload['user'] response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) class UserSessionLogAPITestCase(APITestCase): def setUp(self): # create DeviceOwner to pass the setup_wizard middleware check DeviceOwner.objects.create(username='test-device-owner', password=123) self.facility = FacilityFactory.create() self.admin = FacilityUserFactory.create(facility=self.facility) self.user = FacilityUserFactory.create(facility=self.facility) self.session_logs = [UserSessionLogFactory.create(user=self.user) for _ in range(3)] self.facility.add_admin(self.admin) def test_sessionlog_list(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.get(reverse('usersessionlog-list')) expected_count = UserSessionLog.objects.count() self.assertEqual(len(response.data), expected_count) def test_sessionlog_detail(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) log_id = self.session_logs[0].id response = self.client.get(reverse('usersessionlog-detail', kwargs={"pk": log_id})) log = UserSessionLog.objects.get(pk=log_id) self.assertEqual(response.data['user'], log.user.id) def test_admin_can_create_sessionlog(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('usersessionlog-list'), data={'user': self.user.pk}, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_learner_can_create_sessionlog(self): self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility) response = self.client.post(reverse('usersessionlog-list'), data={'user': self.user.pk}, format='json') self.assertEqual(response.status_code, status.HTTP_201_CREATED) def test_anonymous_user_cannot_create_sessionlog_for_learner(self): response = self.client.post(reverse('usersessionlog-list'), data={'user': self.user.pk}, format='json') self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN) class ContentSummaryLogCSVExportTestCase(APITestCase): def setUp(self): # create DeviceOwner to pass the setup_wizard middleware check DeviceOwner.objects.create(username='test-device-owner', password=123) self.facility = FacilityFactory.create() self.admin = FacilityUserFactory.create(facility=self.facility) self.user = FacilityUserFactory.create(facility=self.facility) self.summary_logs = [ContentSummaryLogFactory.create(user=self.user) for _ in range(3)] self.facility.add_admin(self.admin) def test_csv_download(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) expected_count = ContentSummaryLog.objects.count() response = self.client.get(reverse('contentsummarylogcsv-list')) results = list(csv.reader(row for row in response.content.decode("utf-8").split("\n") if row)) for row in results[1:]: self.assertEqual(len(results[0]), len(row)) self.assertEqual(len(results[1:]), expected_count) class ContentSessionLogCSVExportTestCase(APITestCase): def setUp(self): # create DeviceOwner to pass the setup_wizard middleware check DeviceOwner.objects.create(username='test-device-owner', password=123) self.facility = FacilityFactory.create() self.admin = FacilityUserFactory.create(facility=self.facility) self.user = FacilityUserFactory.create(facility=self.facility) self.interaction_logs = [ContentSessionLogFactory.create(user=self.user) for _ in range(3)] self.facility.add_admin(self.admin) def test_csv_download(self): self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility) expected_count = ContentSessionLog.objects.count() response = self.client.get(reverse('contentsessionlogcsv-list')) results = list(csv.reader(row for row in response.content.decode("utf-8").split("\n") if row)) for row in results[1:]: self.assertEqual(len(results[0]), len(row)) self.assertEqual(len(results[1:]), expected_count)
53.508065
111
0.726601
1,528
13,270
6.162304
0.093586
0.053526
0.063721
0.036321
0.846007
0.828802
0.804376
0.783454
0.762638
0.737893
0
0.007559
0.162622
13,270
247
112
53.724696
0.839813
0.037227
0
0.60733
0
0
0.070908
0.034866
0
0
0
0
0.136126
1
0.157068
false
0.13089
0.052356
0
0.240838
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
1
0
0
0
0
0
7
633b5deaa672cde7866c52063d2302c367c57a90
11,337
py
Python
imcsdk/mometa/lsboot/LsbootHttp.py
ecoen66/imcsdk
b10eaa926a5ee57cea7182ae0adc8dd1c818b0ab
[ "Apache-2.0" ]
31
2016-06-14T07:23:59.000Z
2021-09-12T17:17:26.000Z
imcsdk/mometa/lsboot/LsbootHttp.py
sthagen/imcsdk
1831eaecb5960ca03a8624b1579521749762b932
[ "Apache-2.0" ]
109
2016-05-25T03:56:56.000Z
2021-10-18T02:58:12.000Z
imcsdk/mometa/lsboot/LsbootHttp.py
sthagen/imcsdk
1831eaecb5960ca03a8624b1579521749762b932
[ "Apache-2.0" ]
67
2016-05-17T05:53:56.000Z
2022-03-24T15:52:53.000Z
"""This module contains the general information for LsbootHttp ManagedObject.""" from ...imcmo import ManagedObject from ...imccoremeta import MoPropertyMeta, MoMeta from ...imcmeta import VersionMeta class LsbootHttpConsts: IP_CONFIG_TYPE_ = "" IP_CONFIG_TYPE_DHCP = "DHCP" IP_CONFIG_TYPE_STATIC = "Static" IPTYPE_ = "" IPTYPE_IPV4 = "IPv4" IPTYPE_IPV6 = "IPv6" MAC_ADDRESS_ = "" NETMASK_OR_IPV6_PREFIX_ = "" STATE_DISABLED = "Disabled" STATE_ENABLED = "Enabled" SUBTYPE_HTTP = "HTTP" TYPE_HTTP = "HTTP" class LsbootHttp(ManagedObject): """This is LsbootHttp class.""" consts = LsbootHttpConsts() naming_props = set(['name']) mo_meta = { "classic": MoMeta("LsbootHttp", "lsbootHttp", "http-[name]", VersionMeta.Version413a, "InputOutput", 0x7ffff, [], ["admin", "read-only", "user"], ['lsbootDevPrecision'], [], [None]), "modular": MoMeta("LsbootHttp", "lsbootHttp", "http-[name]", VersionMeta.Version413a, "InputOutput", 0x7ffff, [], ["admin", "read-only", "user"], ['lsbootDevPrecision'], [], [None]) } prop_meta = { "classic": { "dn": MoPropertyMeta("dn", "dn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2, 0, 255, None, [], []), "dnsserver": MoPropertyMeta("dnsserver", "dnsserver", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []), "gateway": MoPropertyMeta("gateway", "gateway", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []), "ip_config_type": MoPropertyMeta("ip_config_type", "ipConfigType", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10, None, None, None, ["", "DHCP", "Static"], []), "ipaddress": MoPropertyMeta("ipaddress", "ipaddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []), "iptype": MoPropertyMeta("iptype", "iptype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40, None, None, None, ["", "IPv4", "IPv6"], []), "mac_address": MoPropertyMeta("mac_address", "macAddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x80, None, None, r"""(([0-9a-fA-F][0-9a-fA-F]:){5}([0-9a-fA-F][0-9a-fA-F]))|0""", [""], []), "name": MoPropertyMeta("name", "name", "string", VersionMeta.Version413a, MoPropertyMeta.NAMING, 0x100, None, None, r"""(([a-zA-Z0-9]{1})|([a-zA-Z0-9]{1}[a-zA-Z0-9_\-]{0,28}[a-zA-Z0-9]{1})|([a-zA-Z0-9]{2}))""", [], []), "netmask_or_i_pv6_prefix": MoPropertyMeta("netmask_or_i_pv6_prefix", "netmaskOrIPv6Prefix", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x200, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], ["1-128"]), "order": MoPropertyMeta("order", "order", "uint", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x400, None, None, None, [], ["1-255"]), "port": MoPropertyMeta("port", "port", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x800, None, None, r"""([0-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]){0,1}""", [], []), "rn": MoPropertyMeta("rn", "rn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x1000, 0, 255, None, [], []), "slot": MoPropertyMeta("slot", "slot", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2000, None, None, r"""([1-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]|L|MLOM|L1|L2|OCP){0,1}""", [], []), "state": MoPropertyMeta("state", "state", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4000, None, None, None, ["Disabled", "Enabled", "disabled", "enabled"], []), "status": MoPropertyMeta("status", "status", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8000, None, None, None, ["", "created", "deleted", "modified", "removed"], []), "subtype": MoPropertyMeta("subtype", "subtype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10000, None, None, None, ["HTTP"], []), "type": MoPropertyMeta("type", "type", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20000, None, None, None, ["HTTP"], []), "uri": MoPropertyMeta("uri", "uri", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40000, 0, 255, None, [], []), "child_action": MoPropertyMeta("child_action", "childAction", "string", VersionMeta.Version413a, MoPropertyMeta.INTERNAL, None, None, None, None, [], []), }, "modular": { "dn": MoPropertyMeta("dn", "dn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2, 0, 255, None, [], []), "dnsserver": MoPropertyMeta("dnsserver", "dnsserver", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []), "gateway": MoPropertyMeta("gateway", "gateway", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []), "ip_config_type": MoPropertyMeta("ip_config_type", "ipConfigType", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10, None, None, None, ["", "DHCP", "Static"], []), "ipaddress": MoPropertyMeta("ipaddress", "ipaddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []), "iptype": MoPropertyMeta("iptype", "iptype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40, None, None, None, ["", "IPv4", "IPv6"], []), "mac_address": MoPropertyMeta("mac_address", "macAddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x80, None, None, r"""(([0-9a-fA-F][0-9a-fA-F]:){5}([0-9a-fA-F][0-9a-fA-F]))|0""", [""], []), "name": MoPropertyMeta("name", "name", "string", VersionMeta.Version413a, MoPropertyMeta.NAMING, 0x100, None, None, r"""(([a-zA-Z0-9]{1})|([a-zA-Z0-9]{1}[a-zA-Z0-9_\-]{0,28}[a-zA-Z0-9]{1})|([a-zA-Z0-9]{2}))""", [], []), "netmask_or_i_pv6_prefix": MoPropertyMeta("netmask_or_i_pv6_prefix", "netmaskOrIPv6Prefix", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x200, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], ["1-128"]), "order": MoPropertyMeta("order", "order", "uint", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x400, None, None, None, [], ["1-255"]), "port": MoPropertyMeta("port", "port", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x800, None, None, r"""([0-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]){0,1}""", [], []), "rn": MoPropertyMeta("rn", "rn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x1000, 0, 255, None, [], []), "slot": MoPropertyMeta("slot", "slot", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2000, None, None, r"""([1-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]|L|MLOM|SIOC1|SIOC2|IOESlot1|IOESlot2|SBLOM1){0,1}""", [], []), "state": MoPropertyMeta("state", "state", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4000, None, None, None, ["Disabled", "Enabled", "disabled", "enabled"], []), "status": MoPropertyMeta("status", "status", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8000, None, None, None, ["", "created", "deleted", "modified", "removed"], []), "subtype": MoPropertyMeta("subtype", "subtype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10000, None, None, None, ["HTTP"], []), "type": MoPropertyMeta("type", "type", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20000, None, None, None, ["HTTP"], []), "uri": MoPropertyMeta("uri", "uri", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40000, 0, 255, None, [], []), "child_action": MoPropertyMeta("child_action", "childAction", "string", VersionMeta.Version413a, MoPropertyMeta.INTERNAL, None, None, None, None, [], []), }, } prop_map = { "classic": { "dn": "dn", "dnsserver": "dnsserver", "gateway": "gateway", "ipConfigType": "ip_config_type", "ipaddress": "ipaddress", "iptype": "iptype", "macAddress": "mac_address", "name": "name", "netmaskOrIPv6Prefix": "netmask_or_i_pv6_prefix", "order": "order", "port": "port", "rn": "rn", "slot": "slot", "state": "state", "status": "status", "subtype": "subtype", "type": "type", "uri": "uri", "childAction": "child_action", }, "modular": { "dn": "dn", "dnsserver": "dnsserver", "gateway": "gateway", "ipConfigType": "ip_config_type", "ipaddress": "ipaddress", "iptype": "iptype", "macAddress": "mac_address", "name": "name", "netmaskOrIPv6Prefix": "netmask_or_i_pv6_prefix", "order": "order", "port": "port", "rn": "rn", "slot": "slot", "state": "state", "status": "status", "subtype": "subtype", "type": "type", "uri": "uri", "childAction": "child_action", }, } def __init__(self, parent_mo_or_dn, name, **kwargs): self._dirty_mask = 0 self.name = name self.dnsserver = None self.gateway = None self.ip_config_type = None self.ipaddress = None self.iptype = None self.mac_address = None self.netmask_or_i_pv6_prefix = None self.order = None self.port = None self.slot = None self.state = None self.status = None self.subtype = None self.type = None self.uri = None self.child_action = None ManagedObject.__init__(self, "LsbootHttp", parent_mo_or_dn, **kwargs)
74.098039
365
0.569375
1,486
11,337
4.253701
0.092194
0.03607
0.018984
0.239203
0.857934
0.854928
0.854928
0.854928
0.854928
0.854928
0
0.106372
0.17906
11,337
152
366
74.585526
0.572795
0.008821
0
0.59542
0
0.122137
0.341559
0.175234
0
0
0.017283
0
0
1
0.007634
false
0
0.022901
0
0.175573
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
63a50177e26de25605c36132366d30c71d7e244d
14,006
py
Python
ETL_pipelines/web_api_pipelines/stock_pipeline/market_indicies.py
MatthewTe/ETL_pipelines
fd9025834ff6ffc91422593ba60aa3bb49c54846
[ "MIT" ]
null
null
null
ETL_pipelines/web_api_pipelines/stock_pipeline/market_indicies.py
MatthewTe/ETL_pipelines
fd9025834ff6ffc91422593ba60aa3bb49c54846
[ "MIT" ]
null
null
null
ETL_pipelines/web_api_pipelines/stock_pipeline/market_indicies.py
MatthewTe/ETL_pipelines
fd9025834ff6ffc91422593ba60aa3bb49c54846
[ "MIT" ]
null
null
null
# Importing data management libraries: import pandas as pd import yfinance as yf import sqlite3 import json # Importing ETL libraries: import bonobo # Importing webscraping packages: import requests from bs4 import BeautifulSoup # Importing the Base Pipeline API Object: from ETL_pipelines.base_pipeline import Pipeline # Importing the Sqlite Pipeline API Objects to Re-Factor: from ETL_pipelines.sqlite_pipelines.stock_pipeline.market_indicies import * class SPYCompositionWebAPIPipeline(SPYCompositionPipeline): """An object that contains all the logic and methods necessary to construct a ETL pipeline for extracting and ingesting daily relevant SPY Index data to a database through the velkozz REST API. It inherits from the Sqlite SPYCompositionPipeline object and is modified to perform POST requests to the velkozz Web API through the requests python library. The primary documentation for this pipeline is found in the Sqlite SPYCompositionPipeline API. This objects adapts the Pipeline object to insert data to a REST Web API in place of a Sqlite database. Example: test_pipeline = SPYCompositionWebAPIPipeline("http://localhost:8000/exampleapi/") Arguments: api_endpoint (str): The API endpoint associated with the specific subreddit database table. This is the url endpoint that the requests method uses to Query and Write JSON data to. """ def __init__(self, api_endpoint, **kwargs): # Declaring instance params: self.api_endpoint = api_endpoint # Hard Coded URL for S&P 500 Index Contents: self.spy_comp_url = "https://en.wikipedia.org/wiki/List_of_S%26P_500_companies" # Executing the pipeline: self.execute_pipeline() # Overwriting the ETL load method to perform POST request: def load(self, *args): """The method recieves the formatted dataframe containing SPY composition data and loads the data to the velkozz web API. The method seralizes the dataframe into a JSON format and sends data to the REST API through a POST request. Arguments: args (tuple): A length-1 tuple containing the formatted dataframe of components generted by the transform method """ # Unpacking the argument tuples: content_df = args[0] # Seralizing Dataframe into a JSON format: posts_json = content_df.to_json(orient="records") parsed_content = json.loads(posts_json) # Making a POST request to the Web API to write data to the database: post_response = requests.post(self.api_endpoint, json=parsed_content) class DJIACompositionWebAPIPipeline(DJIACompositionPipeline): """An object that contains all the logic and methods necessary to construct a ETL pipeline for extracting and ingesting daily relevant DJIA Index data to a database through the velkozz REST API. It inherits from the Sqlite DJIACompositionPipeline object and is modified to perform POST requests to the velkozz Web API through the requests python library. The primary documentation for this pipeline is found in the Sqlite DJIACompositionPipeline API. This objects adapts the Pipeline object to insert data to a REST Web API in place of a Sqlite database. Example: test_pipeline = DJIACompositionWebAPIPipeline("http://localhost:8000/exampleapi/") Arguments: api_endpoint (str): The API endpoint associated with the specific subreddit database table. This is the url endpoint that the requests method uses to Query and Write JSON data to. """ def __init__(self, api_endpoint, **kwargs): # Declaring instance params: self.api_endpoint = api_endpoint # Hard Coded URL for S&P 500 Index Contents: self.djia_comp_url = "https://en.wikipedia.org/wiki/Dow_Jones_Industrial_Average" # Executing the pipeline: self.execute_pipeline() # Overwriting the ETL load method to perform POST request: def load(self, *args): """The method recieves the formatted dataframe containing DJIA composition data and loads the data to the velkozz web API. The method seralizes the dataframe into a JSON format and sends data to the REST API through a POST request. Arguments: args (tuple): A length-1 tuple containing the formatted dataframe of components generted by the transform method """ # Unpacking the argument tuples: content_df = args[0] # Seralizing Dataframe into a JSON format: posts_json = content_df.to_json(orient="records") parsed_content = json.loads(posts_json) print(parsed_content) # Making a POST request to the Web API to write data to the database: post_response = requests.post(self.api_endpoint, json=parsed_content) class SPTSXCompositionWebAPIPipeline(SPTSXCompositionPipeline): """An object that contains all the logic and methods necessary to construct a ETL pipeline for extracting and ingesting daily relevant SPTSX Index data to a database through the velkozz REST API. It inherits from the Sqlite SPTSXComposition object and is modified to perform POST requests to the velkozz Web API through the requests python library. The primary documentation for this pipeline is found in the Sqlite SPTSXComposition API. This objects adapts the Pipeline object to insert data to a REST Web API in place of a Sqlite database. Example: test_pipeline = DJIACompositionWebAPIPipeline("http://localhost:8000/exampleapi/") Arguments: api_endpoint (str): The API endpoint associated with the specific subreddit database table. This is the url endpoint that the requests method uses to Query and Write JSON data to. """ def __init__(self, api_endpoint, **kwargs): # Declaring instance params: self.api_endpoint = api_endpoint # Hard Coded URL for S&P 500 Index Contents: self.sptsx_composite_url = "https://en.wikipedia.org/wiki/S%26P/TSX_Composite_Index" # Executing the pipeline: self.execute_pipeline() # Overwriting the ETL load method to perform POST request: def load(self, *args): """The method recieves the formatted dataframe containing SPTSX composition data and loads the data to the velkozz web API. The method seralizes the dataframe into a JSON format and sends data to the REST API through a POST request. Arguments: args (tuple): A length-1 tuple containing the formatted dataframe of components generted by the transform method """ # Unpacking the argument tuples: content_df = args[0] # Seralizing Dataframe into a JSON format: posts_json = content_df.to_json(orient="records") parsed_content = json.loads(posts_json) print(parsed_content) # Making a POST request to the Web API to write data to the database: post_response = requests.post(self.api_endpoint, json=parsed_content) class FTSECompositionWebAPIPipeline(FTSECompositionPipeline): """An object that contains all the logic and methods necessary to construct a ETL pipeline for extracting and ingesting daily relevant FTSE Index data to a database through the velkozz REST API. It inherits from the Sqlite FTSEComposition object and is modified to perform POST requests to the velkozz Web API through the requests python library. The primary documentation for this pipeline is found in the Sqlite FTSEComposition API. This objects adapts the Pipeline object to insert data to a REST Web API in place of a Sqlite database. Example: test_pipeline = FTSECompositionWebAPIPipeline("http://localhost:8000/exampleapi/") Arguments: api_endpoint (str): The API endpoint associated with the specific subreddit database table. This is the url endpoint that the requests method uses to Query and Write JSON data to. """ def __init__(self, api_endpoint, **kwargs): # Declaring instance params: self.api_endpoint = api_endpoint # Hard Coded URL for S&P 500 Index Contents: self.ftse_market_index_url = "https://en.wikipedia.org/wiki/FTSE_100_Index" # Executing the pipeline: self.execute_pipeline() # Overwriting the ETL load method to perform POST request: def load(self, *args): """The method recieves the formatted dataframe containing FTSE composition data and loads the data to the velkozz web API. The method seralizes the dataframe into a JSON format and sends data to the REST API through a POST request. Arguments: args (tuple): A length-1 tuple containing the formatted dataframe of components generted by the transform method """ # Unpacking the argument tuples: content_df = args[0] # Seralizing Dataframe into a JSON format: posts_json = content_df.to_json(orient="records") parsed_content = json.loads(posts_json) # Making a POST request to the Web API to write data to the database: post_response = requests.post(self.api_endpoint, json=parsed_content) class SMICompositionWebAPIPipeline(SMICompositionPipeline): """An object that contains all the logic and methods necessary to construct a ETL pipeline for extracting and ingesting daily relevant Swiss Market Index data to a database through the velkozz REST API. It inherits from the Sqlite SMIComposition object and is modified to perform POST requests to the velkozz Web API through the requests python library. The primary documentation for this pipeline is found in the Sqlite SMIComposition API. This objects adapts the Pipeline object to insert data to a REST Web API in place of a Sqlite database. Example: test_pipeline = SMICompositionWebAPIPipeline("http://localhost:8000/exampleapi/") Arguments: api_endpoint (str): The API endpoint associated with the specific subreddit database table. This is the url endpoint that the requests method uses to Query and Write JSON data to. """ def __init__(self, api_endpoint, **kwargs): # Declaring instance params: self.api_endpoint = api_endpoint # Hard Coded URL for S&P 500 Index Contents: self.smi_composition_url = "https://en.wikipedia.org/wiki/Swiss_Market_Index" # Executing the pipeline: self.execute_pipeline() # Overwriting the ETL load method to perform POST request: def load(self, *args): """The method recieves the formatted dataframe containing SMI composition data and loads the data to the velkozz web API. The method seralizes the dataframe into a JSON format and sends data to the REST API through a POST request. Arguments: args (tuple): A length-1 tuple containing the formatted dataframe of components generted by the transform method """ # Unpacking the argument tuples: content_df = args[0] # Seralizing Dataframe into a JSON format: posts_json = content_df.to_json(orient="records") parsed_content = json.loads(posts_json) # Making a POST request to the Web API to write data to the database: post_response = requests.post(self.api_endpoint, json=parsed_content) class SPICompositionWebAPIPipeline(SPICompositionPipeline): """An object that contains all the logic and methods necessary to construct a ETL pipeline for extracting and ingesting daily relevant Swiss Performance Index data to a database through the velkozz REST API. It inherits from the Sqlite SPIComposition object and is modified to perform POST requests to the velkozz Web API through the requests python library. The primary documentation for this pipeline is found in the Sqlite SPIComposition API. This objects adapts the Pipeline object to insert data to a REST Web API in place of a Sqlite database. Example: test_pipeline = SPICompositionWebAPIPipeline("http://localhost:8000/exampleapi/") Arguments: api_endpoint (str): The API endpoint associated with the specific subreddit database table. This is the url endpoint that the requests method uses to Query and Write JSON data to. """ def __init__(self, api_endpoint, **kwargs): # Declaring instance params: self.api_endpoint = api_endpoint # Hard Coded URL for S&P 500 Index Contents: self.spi_composition_url = "https://en.wikipedia.org/wiki/Swiss_Performance_Index" # Executing the pipeline: self.execute_pipeline() # Overwriting the ETL load method to perform POST request: def load(self, *args): """The method recieves the formatted dataframe containing SPI composition data and loads the data to the velkozz web API. The method seralizes the dataframe into a JSON format and sends data to the REST API through a POST request. Arguments: args (tuple): A length-1 tuple containing the formatted dataframe of components generted by the transform method """ # Unpacking the argument tuples: content_df = args[0] # Seralizing Dataframe into a JSON format: posts_json = content_df.to_json(orient="records") parsed_content = json.loads(posts_json) # Making a POST request to the Web API to write data to the database: post_response = requests.post(self.api_endpoint, json=parsed_content)
39.903134
99
0.703556
1,841
14,006
5.271048
0.098859
0.022259
0.027824
0.018549
0.877061
0.877061
0.871702
0.865519
0.856863
0.856863
0
0.006271
0.248536
14,006
350
100
40.017143
0.915724
0.658432
0
0.704225
0
0
0.090678
0
0
0
0
0
0
1
0.169014
false
0
0.126761
0
0.380282
0.028169
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
894eb83b9a16897b53be0f703ec564c7c73aac51
9,945
py
Python
ezcoach/ezcoach/tests/value_tests.py
Pawel-M/EZ-Coach
ee078b8ab7409730e99cb38653d03aa574ab914b
[ "MIT" ]
1
2021-09-14T13:17:33.000Z
2021-09-14T13:17:33.000Z
ezcoach/ezcoach/tests/value_tests.py
Pawel-M/EZ-Coach
ee078b8ab7409730e99cb38653d03aa574ab914b
[ "MIT" ]
null
null
null
ezcoach/ezcoach/tests/value_tests.py
Pawel-M/EZ-Coach
ee078b8ab7409730e99cb38653d03aa574ab914b
[ "MIT" ]
null
null
null
import unittest import numpy as np from ezcoach.value import BoolValue, IntValue, FloatValue, BoolList, IntList, FloatList from ezcoach.range import Range, UnboundRange class TestBoolValueContains(unittest.TestCase): def test_contains_true(self): value = BoolValue() self.assertTrue(value.contains(True), 'Contains failed') def test_contains_false(self): value = BoolValue() self.assertTrue(value.contains(False), 'Contains failed') def test_contains_int(self): value = BoolValue() self.assertFalse(value.contains(5), 'Contains failed') def test_contains_float(self): value = BoolValue() self.assertFalse(value.contains(2.5), 'Contains failed') def test_contains_zero(self): value = BoolValue() self.assertFalse(value.contains(0), 'Contains failed') class TestIntValueContains(unittest.TestCase): def test_int_range_contains_min_border(self): value = IntValue(Range(1, 5)) self.assertTrue(value.contains(1), 'Contains failed') def test_int_range_contains_max_border(self): value = IntValue(Range(1, 5)) self.assertTrue(value.contains(5), 'Contains failed') def test_int_range_contains_middle(self): value = IntValue(Range(1, 5)) self.assertTrue(value.contains(3), 'Contains failed') def test_int_range_not_contains_min_border(self): value = IntValue(Range(1, 5)) self.assertFalse(value.contains(.9999), 'Contains failed') def test_int_range_not_contains_max_border(self): value = IntValue(Range(1, 5)) self.assertFalse(value.contains(5.0001), 'Contains failed') def test_int_range_not_contains_min_large(self): value = IntValue(Range(1, 5)) self.assertFalse(value.contains(-9999999), 'Contains failed') def test_int_range_not_contains_max_large(self): value = IntValue(Range(1, 5)) self.assertFalse(value.contains(9999999), 'Contains failed') def test_unbound_range_contains_int(self): value = IntValue(UnboundRange()) self.assertTrue(value.contains(5), 'Contains failed') def test_unbound_range_contains_float(self): value = IntValue(UnboundRange()) self.assertFalse(value.contains(2.5), 'Contains failed') def test_unbound_range_contains_zero(self): value = IntValue(UnboundRange()) self.assertTrue(value.contains(0), 'Contains failed') class TestFloatValueContains(unittest.TestCase): def test_int_range_contains_min_border(self): value = FloatValue(Range(.5, 2.5)) self.assertTrue(value.contains(.5), 'Contains failed') def test_int_range_contains_max_border(self): value = FloatValue(Range(.5, 2.5)) self.assertTrue(value.contains(2.5), 'Contains failed') def test_int_range_contains_middle(self): value = FloatValue(Range(.5, 2.5)) self.assertTrue(value.contains(1.5), 'Contains failed') def test_int_range_not_contains_min_border(self): value = FloatValue(Range(.5, 2.5)) self.assertFalse(value.contains(.49999), 'Contains failed') def test_int_range_not_contains_max_border(self): value = FloatValue(Range(.5, 2.5)) self.assertFalse(value.contains(2.50001), 'Contains failed') def test_int_range_not_contains_min_large(self): value = FloatValue(Range(.5, 2.5)) self.assertFalse(value.contains(-9999999.), 'Contains failed') def test_int_range_not_contains_max_large(self): value = FloatValue(Range(.5, 2.5)) self.assertFalse(value.contains(9999999.), 'Contains failed') def test_unbound_range_contains_int(self): value = FloatValue(UnboundRange()) self.assertFalse(value.contains(5), 'Contains failed') def test_unbound_range_contains_float(self): value = FloatValue(UnboundRange()) self.assertTrue(value.contains(2.5), 'Contains failed') def test_unbound_range_contains_zero(self): value = FloatValue(UnboundRange()) self.assertTrue(value.contains(0.), 'Contains failed') def test_unbound_range_contains_zero_int(self): value = FloatValue(UnboundRange()) self.assertFalse(value.contains(0), 'Contains failed') class TestBoolListValueContains(unittest.TestCase): def test_size_1_contains_true(self): value = BoolList(1) self.assertFalse(value.contains(True), 'Contains failed') def test_size_1_contains_false(self): value = BoolList(1) self.assertFalse(value.contains(False), 'Contains failed') def test_size_1_contains_true_list(self): value = BoolList(1) self.assertTrue(value.contains([True]), 'Contains failed') def test_size_1_contains_false_list(self): value = BoolList(1) self.assertTrue(value.contains([False]), 'Contains failed') def test_size_2_contains_true_list(self): value = BoolList(2) self.assertTrue(value.contains([True, True]), 'Contains failed') def test_size_2_contains_false_list(self): value = BoolList(2) self.assertTrue(value.contains([False, False]), 'Contains failed') def test_size_2_contains_true_false_list(self): value = BoolList(2) self.assertTrue(value.contains([True, False]), 'Contains failed') def test_size_10_contains_true_list(self): value = BoolList(10) self.assertTrue(value.contains([True for __ in range(10)]), 'Contains failed') def test_size_10_contains_false_list(self): value = BoolList(10) self.assertTrue(value.contains([False for __ in range(10)]), 'Contains failed') def test_size_10_contains_true_false_list(self): value = BoolList(10) bool_list = [True, False, True, False, True, False, True, False, True, False] self.assertTrue(value.contains(bool_list), 'Contains failed') class TestIntListValueContains(unittest.TestCase): def test_size_1_contains_in(self): value = IntList([Range(1, 5)]) self.assertFalse(value.contains(2), 'Contains failed') def test_size_1_contains_out(self): value = IntList([Range(1, 5)]) self.assertFalse(value.contains(6), 'Contains failed') def test_size_1_contains_in_list(self): value = IntList([Range(1, 5)]) self.assertTrue(value.contains([2]), 'Contains failed') def test_size_1_contains_out_list(self): value = IntList([Range(1, 5)]) self.assertFalse(value.contains([6]), 'Contains failed') def test_size_2_contains_in_list(self): value = IntList([Range(1, 5), Range(1, 5)]) self.assertTrue(value.contains([2, 3]), 'Contains failed') def test_size_2_contains_out_list(self): value = IntList([Range(1, 5), Range(1, 5)]) self.assertFalse(value.contains([6, 7]), 'Contains failed') def test_size_2_contains_in_out_list(self): value = IntList([Range(1, 5), Range(1, 5)]) self.assertFalse(value.contains([2, 7]), 'Contains failed') def test_size_10_contains_in_list(self): value = IntList([Range(1, 5) for __ in range(10)]) v = [1, 2, 3, 4, 5, 1, 2, 3, 4, 5] self.assertTrue(value.contains(v), 'Contains failed') def test_size_10_contains_out_list(self): value = IntList([Range(1, 5) for __ in range(10)]) v = [-5, -4, -3, -2, -1, 6, 7, 8, 9, 10] self.assertFalse(value.contains(v), 'Contains failed') def test_size_10_contains_in_out_list(self): value = IntList([Range(1, 5) for __ in range(10)]) v = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10] self.assertFalse(value.contains(v), 'Contains failed') def test_size_10_contains_wrong_len_list(self): value = IntList([Range(1, 5) for __ in range(10)]) self.assertFalse(value.contains([2, 3]), 'Contains failed') class TestFloatListValueContains(unittest.TestCase): def test_size_1_contains_in(self): value = FloatList([Range(.5, 2.5)]) self.assertFalse(value.contains(1.), 'Contains failed') def test_size_1_contains_out(self): value = FloatList([Range(.5, 2.5)]) self.assertFalse(value.contains(3.), 'Contains failed') def test_size_1_contains_in_list(self): value = FloatList([Range(.5, 2.5)]) self.assertTrue(value.contains([1.]), 'Contains failed') def test_size_1_contains_out_list(self): value = FloatList([Range(.5, 2.5)]) self.assertFalse(value.contains([3.]), 'Contains failed') def test_size_2_contains_in_list(self): value = FloatList([Range(.5, 2.5), Range(.5, 2.5)]) self.assertTrue(value.contains([1., 1.5]), 'Contains failed') def test_size_2_contains_out_list(self): value = FloatList([Range(.5, 2.5), Range(.5, 2.5)]) self.assertFalse(value.contains([3., 3.5]), 'Contains failed') def test_size_2_contains_in_out_list(self): value = FloatList([Range(.5, 2.5), Range(.5, 2.5)]) self.assertFalse(value.contains([2, 7]), 'Contains failed') def test_size_10_contains_in_list(self): value = FloatList([Range(.5, 2.5) for __ in range(10)]) v = [.5, 1., 1.5, 2., 2.5, .5, 1., 1.5, 2., 2.5] self.assertTrue(value.contains(v), 'Contains failed') def test_size_10_contains_out_list(self): value = FloatList([Range(.5, 2.5) for __ in range(10)]) v = [-2.5, -2., -1.5, -1., -.5, 3., 3.5, 4., 4.5, 5.] self.assertFalse(value.contains(v), 'Contains failed') def test_size_10_contains_in_out_list(self): value = FloatList([Range(.5, 2.5) for __ in range(10)]) v = [.5, 1., 1.5, 2., 2.5, 3., 3.5, 4., 4.5, 5.] self.assertFalse(value.contains(v), 'Contains failed') def test_size_10_contains_wrong_len_list(self): value = FloatList([Range(.5, 2.5) for __ in range(10)]) self.assertFalse(value.contains([1.5, 2.]), 'Contains failed')
37.958015
87
0.666466
1,335
9,945
4.740824
0.050936
0.064149
0.139675
0.172539
0.929215
0.920367
0.910412
0.87818
0.79823
0.697741
0
0.043985
0.197587
9,945
261
88
38.103448
0.749123
0
0
0.617801
0
0
0.087481
0
0
0
0
0
0.303665
1
0.303665
false
0
0.020942
0
0.356021
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
0
0
0
0
8
89ac3401a19c90331c972b1532a07181ccaa00ff
10,491
py
Python
store/tests/test_goods.py
UniqueQueue/ethereum-store
69f25f59980c6790a682c2d2700b0f98cb1d989a
[ "MIT" ]
null
null
null
store/tests/test_goods.py
UniqueQueue/ethereum-store
69f25f59980c6790a682c2d2700b0f98cb1d989a
[ "MIT" ]
null
null
null
store/tests/test_goods.py
UniqueQueue/ethereum-store
69f25f59980c6790a682c2d2700b0f98cb1d989a
[ "MIT" ]
null
null
null
from unittest import mock from django.contrib.auth import get_user_model from django.contrib.auth.models import AnonymousUser from django.urls import reverse from parameterized import parameterized from store.models import Good from store.tests.utils import PermissionTest class GoodsTest(PermissionTest): def setUp(self): super().setUp() self.user, created = get_user_model().objects.update_or_create( username='test', defaults={'is_superuser': False, 'is_staff': False, 'is_active': True}) self.client.force_login(self.user) self.good, created = Good.objects.get_or_create(name='good') @parameterized.expand([ ([], 403, None), (["store.view_good"], 200, 1), ]) def test_list(self, perms, status_code, results_count): with self._set_perms(self.user, perms): url = reverse('store:goods-list') response = self.client.get(url) self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return results = response.json()['results'] self.assertEqual(results_count, len(results)) @parameterized.expand([ ([], 403), (["store.view_good"], 200), ]) def test_retrieve(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return results = response.json() self.assertDictEqual(results, { 'id': self.good.id, 'name': mock.ANY, }) @parameterized.expand([ ([], 403), (["store.add_good", "store.change_good"], 201), ]) def test_create(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-list') data = {'name': 'test good'} response = self.client.post(url, data=data, format='json') self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): created_good_id = response.json()['id'] url = reverse('store:goods-detail', kwargs={"pk": created_good_id}) response = self.client.get(url) self.assertEqual(200, response.status_code, response.content) results = response.json() self.assertDictEqual(results, { 'id': created_good_id, 'name': 'test good', }) @parameterized.expand([ ([], 403), (["store.add_good", "store.change_good"], 200), ]) def test_update(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) data = {'name': 'test good'} response = self.client.put(url, data=data, format='json') self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(200, response.status_code, response.content) results = response.json() self.assertDictEqual(results, { 'id': self.good.id, 'name': 'test good', }) @parameterized.expand([ ([], 403), (["store.add_good", "store.change_good"], 200), ]) def test_partial_update(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) data = {'name': 'test good'} response = self.client.patch(url, data=data, format='json') self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(200, response.status_code, response.content) results = response.json() self.assertDictEqual(results, { 'id': self.good.id, 'name': 'test good', }) @parameterized.expand([ ([], 403), (["store.delete_good"], 403), ]) def test_destroy(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.patch(url) self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(404, response.status_code, response.content) class AnonymousGoodsTest(PermissionTest): def setUp(self): super().setUp() self.user = AnonymousUser() self.good, created = Good.objects.get_or_create(name='good') @parameterized.expand([ ([], 401, None), (["store.view_good"], 200, 1), ]) def test_list(self, perms, status_code, results_count): with self._set_perms(self.user, perms): url = reverse('store:goods-list') response = self.client.get(url) self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return results = response.json()['results'] self.assertEqual(results_count, len(results)) @parameterized.expand([ ([], 401), (["store.view_good"], 200), ]) def test_retrieve(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return results = response.json() self.assertDictEqual(results, { 'id': self.good.id, 'name': mock.ANY, }) @parameterized.expand([ ([], 401), (["store.add_good", "store.change_good"], 201), ]) def test_create(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-list') data = {'name': 'test good'} response = self.client.post(url, data=data, format='json') self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): created_good_id = response.json()['id'] url = reverse('store:goods-detail', kwargs={"pk": created_good_id}) response = self.client.get(url) self.assertEqual(200, response.status_code, response.content) results = response.json() self.assertDictEqual(results, { 'id': created_good_id, 'name': 'test good', }) @parameterized.expand([ ([], 401), (["store.add_good", "store.change_good"], 200), ]) def test_update(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) data = {'name': 'test good'} response = self.client.put(url, data=data, format='json') self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(200, response.status_code, response.content) results = response.json() self.assertDictEqual(results, { 'id': self.good.id, 'name': 'test good', }) @parameterized.expand([ ([], 401), (["store.add_good", "store.change_good"], 200), ]) def test_partial_update(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) data = {'name': 'test good'} response = self.client.patch(url, data=data, format='json') self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(200, response.status_code, response.content) results = response.json() self.assertDictEqual(results, { 'id': self.good.id, 'name': 'test good', }) @parameterized.expand([ ([], 401), (["store.delete_good"], 401), ]) def test_destroy(self, perms, status_code): with self._set_perms(self.user, perms): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.delete(url) self.assertEqual(status_code, response.status_code, response.content) if status_code >= 400: return with self._set_perms(self.user, ['store.view_good']): url = reverse('store:goods-detail', kwargs={"pk": self.good.id}) response = self.client.get(url) self.assertEqual(404, response.status_code, response.content)
33.094637
83
0.569155
1,154
10,491
5.030329
0.077123
0.096469
0.099225
0.055125
0.921447
0.920586
0.920586
0.920586
0.905426
0.904393
0
0.018074
0.293299
10,491
316
84
33.199367
0.764904
0
0
0.915254
0
0
0.0998
0
0
0
0
0
0.127119
1
0.059322
false
0
0.029661
0
0.148305
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
f6a426bf319a7950fe5f23fa4ee9fa18662af8d5
10,098
py
Python
tests.py
FundersClub/business_days
fb460f890f1ec936edc24ac353ec2a81870dc3e8
[ "Apache-2.0" ]
2
2017-04-10T22:48:46.000Z
2017-04-15T19:08:55.000Z
tests.py
FundersClub/business_days
fb460f890f1ec936edc24ac353ec2a81870dc3e8
[ "Apache-2.0" ]
null
null
null
tests.py
FundersClub/business_days
fb460f890f1ec936edc24ac353ec2a81870dc3e8
[ "Apache-2.0" ]
null
null
null
from datetime import ( date, datetime, ) from unittest import TestCase from business_days import ( business_timediff, days_from_now, ) class BusinessDaysTests(TestCase): def test_business_days_calculations(self): # Test starting from a Monday. from_day = date(2014, 2, 17) self.assertEqual(days_from_now(from_day, 0), date(2014, 2, 17)) self.assertEqual(days_from_now(from_day, 1), date(2014, 2, 18)) self.assertEqual(days_from_now(from_day, 2), date(2014, 2, 19)) self.assertEqual(days_from_now(from_day, 3), date(2014, 2, 20)) self.assertEqual(days_from_now(from_day, 4), date(2014, 2, 21)) self.assertEqual(days_from_now(from_day, 5), date(2014, 2, 24)) self.assertEqual(days_from_now(from_day, 6), date(2014, 2, 25)) # Test starting from a Friday. from_day = date(2014, 2, 21) self.assertEqual(days_from_now(from_day, 0), date(2014, 2, 21)) self.assertEqual(days_from_now(from_day, 1), date(2014, 2, 24)) self.assertEqual(days_from_now(from_day, 2), date(2014, 2, 25)) self.assertEqual(days_from_now(from_day, 3), date(2014, 2, 26)) self.assertEqual(days_from_now(from_day, 4), date(2014, 2, 27)) self.assertEqual(days_from_now(from_day, 5), date(2014, 2, 28)) self.assertEqual(days_from_now(from_day, 6), date(2014, 3, 3)) # Test starting from a Saturday. from_day = date(2014, 2, 22) self.assertEqual(days_from_now(from_day, 0), date(2014, 2, 22)) self.assertEqual(days_from_now(from_day, 1), date(2014, 2, 24)) self.assertEqual(days_from_now(from_day, 2), date(2014, 2, 25)) self.assertEqual(days_from_now(from_day, 3), date(2014, 2, 26)) self.assertEqual(days_from_now(from_day, 4), date(2014, 2, 27)) self.assertEqual(days_from_now(from_day, 5), date(2014, 2, 28)) self.assertEqual(days_from_now(from_day, 6), date(2014, 3, 3)) # Test holidays. from_day = date(2015, 12, 22) self.assertEqual(days_from_now(from_day, 0), date(2015, 12, 22)) self.assertEqual(days_from_now(from_day, 1), date(2015, 12, 23)) self.assertEqual(days_from_now(from_day, 2), date(2015, 12, 24)) self.assertEqual(days_from_now(from_day, 3), date(2015, 12, 28)) self.assertEqual(days_from_now(from_day, 4), date(2015, 12, 29)) self.assertEqual(days_from_now(from_day, 5), date(2015, 12, 30)) self.assertEqual(days_from_now(from_day, 6), date(2015, 12, 31)) self.assertEqual(days_from_now(from_day, 7), date(2016, 01, 04)) def test_business_timediff(self): hour = 3600 # Mon 07:00 -> Mon 10:30 (expected: 1.5 business hours) self.assertEqual(hour * 1.5, business_timediff( datetime(2016, 10, 17, 7), datetime(2016, 10, 17, 10, 30), ).total_seconds()) # Mon 09:00 -> Mon 10:30 (expected: 1.5 business hours) self.assertEqual(hour * 1.5, business_timediff( datetime(2016, 10, 17, 9), datetime(2016, 10, 17, 10, 30), ).total_seconds()) # Mon 09:30 -> Mon 10:30 (expected: 1 business hour) self.assertEqual(hour, business_timediff( datetime(2016, 10, 17, 9, 30), datetime(2016, 10, 17, 10, 30), ).total_seconds()) # Sun 07:00 -> Sun 10:30 (expected: 0 business hours) self.assertEqual(0, business_timediff( datetime(2016, 10, 16, 7), datetime(2016, 10, 16, 10, 30), ).total_seconds()) # Sun 09:00 -> Sun 10:30 (expected: 0 business hours) self.assertEqual(0, business_timediff( datetime(2016, 10, 16, 9), datetime(2016, 10, 16, 10, 30), ).total_seconds()) # Sun 09:30 -> Sun 10:30 (expected: 0 business hour) self.assertEqual(0, business_timediff( datetime(2016, 10, 16, 9, 30), datetime(2016, 10, 16, 10, 30), ).total_seconds()) # Sun 07:00 -> Mon 10:30 (expected: 1.5 business hours) self.assertEqual(hour * 1.5, business_timediff( datetime(2016, 10, 16, 7), datetime(2016, 10, 17, 10, 30), ).total_seconds()) # Sun 09:00 -> Mon 10:30 (expected: 1.5 business hours) self.assertEqual(hour * 1.5, business_timediff( datetime(2016, 10, 16, 9), datetime(2016, 10, 17, 10, 30), ).total_seconds()) # Sun 09:30 -> Mon 10:30 (expected: 1.5 business hour) self.assertEqual(hour * 1.5, business_timediff( datetime(2016, 10, 16, 9, 30), datetime(2016, 10, 17, 10, 30), ).total_seconds()) # Sun 07:00 -> Tue 10:30 (expected: 9.5 business hours) self.assertEqual(hour * 9.5, business_timediff( datetime(2016, 10, 16, 7), datetime(2016, 10, 18, 10, 30), ).total_seconds()) # Sun 09:00 -> Tue 10:30 (expected: 9.5 business hours) self.assertEqual(hour * 9.5, business_timediff( datetime(2016, 10, 16, 9), datetime(2016, 10, 18, 10, 30), ).total_seconds()) # Sun 09:30 -> Tue 10:30 (expected: 9.5 business hour) self.assertEqual(hour * 9.5, business_timediff( datetime(2016, 10, 16, 9, 30), datetime(2016, 10, 18, 10, 30), ).total_seconds()) # Mon 07:00 -> Mon 18:30 (expected: 8 business hours) self.assertEqual(hour * 8, business_timediff( datetime(2016, 10, 17, 7), datetime(2016, 10, 17, 18, 30), ).total_seconds()) # Mon 09:00 -> Mon 18:30 (expected: 8 business hours) self.assertEqual(hour * 8, business_timediff( datetime(2016, 10, 17, 9), datetime(2016, 10, 17, 18, 30), ).total_seconds()) # Mon 09:30 -> Mon 18:30 (expected: 7.5 business hour) self.assertEqual(hour * 7.5, business_timediff( datetime(2016, 10, 17, 9, 30), datetime(2016, 10, 17, 18, 30), ).total_seconds()) # Mon 07:00 -> Tue 18:30 (expected: 16 business hours) self.assertEqual(hour * 16, business_timediff( datetime(2016, 10, 17, 7), datetime(2016, 10, 18, 18, 30), ).total_seconds()) # Mon 09:00 -> Tue 18:30 (expected: 16 business hours) self.assertEqual(hour * 16, business_timediff( datetime(2016, 10, 17, 9), datetime(2016, 10, 18, 18, 30), ).total_seconds()) # Mon 09:30 -> Tue 18:30 (expected: 15 business hour) self.assertEqual(hour * 15.5, business_timediff( datetime(2016, 10, 17, 9, 30), datetime(2016, 10, 18, 18, 30), ).total_seconds()) # Fri 07:00 -> Sat 23:00 (expected: 8 business hours) self.assertEqual(hour * 8, business_timediff( datetime(2016, 10, 21, 7, 00), datetime(2016, 10, 22, 23, 00), ).total_seconds()) # Fri 09:00 -> Sat 23:00 (expected: 8 business hours) self.assertEqual(hour * 8, business_timediff( datetime(2016, 10, 21, 9, 00), datetime(2016, 10, 22, 23, 00), ).total_seconds()) # Fri 14:00 -> Sat 23:00 (expected: 3 business hours) self.assertEqual(hour * 3, business_timediff( datetime(2016, 10, 21, 14, 00), datetime(2016, 10, 22, 23, 00), ).total_seconds()) # Fri 07:00 -> Mon 23:00 (expected: 16 business hours) self.assertEqual(hour * 16, business_timediff( datetime(2016, 10, 21, 7, 00), datetime(2016, 10, 24, 23, 00), ).total_seconds()) # Fri 09:00 -> Mon 23:00 (expected: 16 business hours) self.assertEqual(hour * 16, business_timediff( datetime(2016, 10, 21, 9, 00), datetime(2016, 10, 24, 23, 00), ).total_seconds()) # Fri 14:00 -> Mon 23:00 (expected: 11 business hours) self.assertEqual(hour * 11, business_timediff( datetime(2016, 10, 21, 14, 00), datetime(2016, 10, 24, 23, 00), ).total_seconds()) # Thu 16:00 - Mon 10:00 (expected: 1 (thu) + 8 (fri) + 0 (mon - # columbus day) = 9) self.assertEqual(hour * 9, business_timediff( datetime(2016, 10, 6, 16, 00), datetime(2016, 10, 10, 10, 00), ).total_seconds()) # Thu 16:00 - Tue 10:00 (expected: 1 (thu) + 8 (fri) + 0 (mon - # columbus day) + 1 (tue) = 10) self.assertEqual(hour * 10, business_timediff( datetime(2016, 10, 6, 16, 00), datetime(2016, 10, 11, 10, 00), ).total_seconds()) # Thu 16:00 - Tue 20:00 (expected: 1 (thu) + 8 (fri) + 0 (mon - # columbus day) + 8 (tue) = 17) self.assertEqual(hour * 17, business_timediff( datetime(2016, 10, 6, 16, 00), datetime(2016, 10, 11, 20, 00), ).total_seconds()) # Thu 03:00 - Thu 04:00 (expected: 0) self.assertEqual(0, business_timediff( datetime(2016, 10, 6, 3, 00), datetime(2016, 10, 6, 4, 00), ).total_seconds()) # Thu 03:00 - Thu 09:00 (expected: 0) self.assertEqual(hour * 0, business_timediff( datetime(2016, 10, 6, 3, 00), datetime(2016, 10, 6, 9, 00), ).total_seconds()) # Thu 03:00 - Thu 10:15 (expected: 1.25) self.assertEqual(hour * 1.25, business_timediff( datetime(2016, 10, 6, 3, 00), datetime(2016, 10, 6, 10, 15), ).total_seconds()) # Thu 03:00 - Fri 04:00 (expected: 8) self.assertEqual(hour * 8, business_timediff( datetime(2016, 10, 6, 3, 00), datetime(2016, 10, 7, 4, 00), ).total_seconds()) # Thu 18:15 - Fri 11:00 (expected: 2) self.assertEqual(hour * 2, business_timediff( datetime(2016, 10, 6, 18, 00), datetime(2016, 10, 7, 11, 00), ).total_seconds())
39.913043
72
0.567142
1,399
10,098
3.976412
0.055039
0.138055
0.161064
0.161064
0.890886
0.841093
0.821499
0.785907
0.766673
0.718497
0
0.187666
0.29184
10,098
252
73
40.071429
0.590267
0.179937
0
0.689655
0
0
0
0
0
0
0
0
0.350575
0
null
null
0
0.017241
null
null
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
8
f6b18e1c95831fba911afa7d5997a8d399dcbce1
37,418
py
Python
dlkit/abstract_osid/assessment/query_inspectors.py
UOC/dlkit
a9d265db67e81b9e0f405457464e762e2c03f769
[ "MIT" ]
2
2018-02-23T12:16:11.000Z
2020-10-08T17:54:24.000Z
dlkit/abstract_osid/assessment/query_inspectors.py
UOC/dlkit
a9d265db67e81b9e0f405457464e762e2c03f769
[ "MIT" ]
87
2017-04-21T18:57:15.000Z
2021-12-13T19:43:57.000Z
dlkit/abstract_osid/assessment/query_inspectors.py
UOC/dlkit
a9d265db67e81b9e0f405457464e762e2c03f769
[ "MIT" ]
1
2018-03-01T16:44:25.000Z
2018-03-01T16:44:25.000Z
"""Implementations of assessment abstract base class query_inspectors.""" # pylint: disable=invalid-name # Method names comply with OSID specification. # pylint: disable=no-init # Abstract classes do not define __init__. # pylint: disable=too-few-public-methods # Some interfaces are specified as 'markers' and include no methods. # pylint: disable=too-many-public-methods # Number of methods are defined in specification # pylint: disable=too-many-ancestors # Inheritance defined in specification # pylint: disable=too-many-arguments # Argument signature defined in specification. # pylint: disable=duplicate-code # All apparent duplicates have been inspected. They aren't. import abc class QuestionQueryInspector: """The query inspectors provide a means of accessing the match terms of a query. These interfaces are used to examine the actual query terms used in a search or that may be used to create a smart catalog. Query inspectors may be converted to ``OsidQuery`` interfaces for reuse or modification in the search sessions. """ __metaclass__ = abc.ABCMeta @abc.abstractmethod def get_question_query_inspector_record(self, question_record_type): """Gets the record query inspector corresponding to the given ``Question`` record ``Type``. :param question_record_type: a question record type :type question_record_type: ``osid.type.Type`` :return: the question query inspector record :rtype: ``osid.assessment.records.QuestionQueryInspectorRecord`` :raise: ``NullArgument`` -- ``question_record_type`` is ``null`` :raise: ``OperationFailed`` -- unable to complete request :raise: ``Unsupported`` -- ``has_record_type(question_record_type)`` is ``false`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.records.QuestionQueryInspectorRecord class AnswerQueryInspector: """The query inspectors provide a means of accessing the match terms of a query. These interfaces are used to examine the actual query terms used in a search or that may be used to create a smart catalog. Query inspectors may be converted to ``OsidQuery`` interfaces for reuse or modification in the search sessions. """ __metaclass__ = abc.ABCMeta @abc.abstractmethod def get_answer_query_inspector_record(self, question_record_type): """Gets the record query inspector corresponding to the given ``Question`` record ``Type``. :param question_record_type: a question record type :type question_record_type: ``osid.type.Type`` :return: the answer query inspector record :rtype: ``osid.assessment.records.AnswerQueryInspectorRecord`` :raise: ``NullArgument`` -- ``question_record_type`` is ``null`` :raise: ``OperationFailed`` -- unable to complete request :raise: ``Unsupported`` -- ``has_record_type(question_record_type)`` is ``false`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.records.AnswerQueryInspectorRecord class ItemQueryInspector: """The query inspectors provide a means of accessing the match terms of a query. These interfaces are used to examine the actual query terms used in a search or that may be used to create a smart catalog. Query inspectors may be converted to ``OsidQuery`` interfaces for reuse or modification in the search sessions. """ __metaclass__ = abc.ABCMeta @abc.abstractmethod def get_learning_objective_id_terms(self): """Gets the learning objective ``Id`` query terms. :return: the learning objective ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm learning_objective_id_terms = property(fget=get_learning_objective_id_terms) @abc.abstractmethod def get_learning_objective_terms(self): """Gets the learning objective query terms. :return: the learning objective terms :rtype: ``osid.learning.ObjectiveQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.learning.ObjectiveQueryInspector learning_objective_terms = property(fget=get_learning_objective_terms) @abc.abstractmethod def get_question_id_terms(self): """Gets the question ``Id`` query terms. :return: the question ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm question_id_terms = property(fget=get_question_id_terms) @abc.abstractmethod def get_question_terms(self): """Gets the question query terms. :return: the question terms :rtype: ``osid.assessment.QuestionQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.QuestionQueryInspector question_terms = property(fget=get_question_terms) @abc.abstractmethod def get_answer_id_terms(self): """Gets the answer ``Id`` query terms. :return: the answer ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm answer_id_terms = property(fget=get_answer_id_terms) @abc.abstractmethod def get_answer_terms(self): """Gets the answer query terms. :return: the answer terms :rtype: ``osid.assessment.AnswerQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AnswerQueryInspector answer_terms = property(fget=get_answer_terms) @abc.abstractmethod def get_assessment_id_terms(self): """Gets the assessment ``Id`` query terms. :return: the assessment ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_id_terms = property(fget=get_assessment_id_terms) @abc.abstractmethod def get_assessment_terms(self): """Gets the assessment query terms. :return: the assessment terms :rtype: ``osid.assessment.AssessmentQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentQueryInspector assessment_terms = property(fget=get_assessment_terms) @abc.abstractmethod def get_bank_id_terms(self): """Gets the bank ``Id`` query terms. :return: the bank ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm bank_id_terms = property(fget=get_bank_id_terms) @abc.abstractmethod def get_bank_terms(self): """Gets the bank query terms. :return: the bank terms :rtype: ``osid.assessment.BankQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.BankQueryInspector bank_terms = property(fget=get_bank_terms) @abc.abstractmethod def get_item_query_inspector_record(self, item_record_type): """Gets the record query inspector corresponding to the given ``Item`` record ``Type``. :param item_record_type: an item record type :type item_record_type: ``osid.type.Type`` :return: the item query inspector record :rtype: ``osid.assessment.records.ItemQueryInspectorRecord`` :raise: ``NullArgument`` -- ``item_record_type`` is ``null`` :raise: ``OperationFailed`` -- unable to complete request :raise: ``Unsupported`` -- ``has_record_type(item_record_type)`` is ``false`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.records.ItemQueryInspectorRecord class AssessmentQueryInspector: """The query inspectors provide a means of accessing the match terms of a query. These interfaces are used to examine the actual query terms used in a search or that may be used to create a smart catalog. Query inspectors may be converted to ``OsidQuery`` interfaces for reuse or modification in the search sessions. """ __metaclass__ = abc.ABCMeta @abc.abstractmethod def get_level_id_terms(self): """Gets the level ``Id`` query terms. :return: the level ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm level_id_terms = property(fget=get_level_id_terms) @abc.abstractmethod def get_level_terms(self): """Gets the level query terms. :return: the level terms :rtype: ``osid.grading.GradeQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.grading.GradeQueryInspector level_terms = property(fget=get_level_terms) @abc.abstractmethod def get_rubric_id_terms(self): """Gets the assessment ``Id`` query terms. :return: the assessment ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm rubric_id_terms = property(fget=get_rubric_id_terms) @abc.abstractmethod def get_rubric_terms(self): """Gets the assessment query terms. :return: the assessment terms :rtype: ``osid.assessment.AssessmentQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentQueryInspector rubric_terms = property(fget=get_rubric_terms) @abc.abstractmethod def get_item_id_terms(self): """Gets the item ``Id`` query terms. :return: the item ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm item_id_terms = property(fget=get_item_id_terms) @abc.abstractmethod def get_item_terms(self): """Gets the item query terms. :return: the item terms :rtype: ``osid.assessment.ItemQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.ItemQueryInspector item_terms = property(fget=get_item_terms) @abc.abstractmethod def get_assessment_offered_id_terms(self): """Gets the assessment offered ``Id`` query terms. :return: the assessment offered ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_offered_id_terms = property(fget=get_assessment_offered_id_terms) @abc.abstractmethod def get_assessment_offered_terms(self): """Gets the assessment offered query terms. :return: the assessment offered terms :rtype: ``osid.assessment.AssessmentOfferedQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentOfferedQueryInspector assessment_offered_terms = property(fget=get_assessment_offered_terms) @abc.abstractmethod def get_assessment_taken_id_terms(self): """Gets the assessment taken ``Id`` query terms. :return: the assessment taken ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_taken_id_terms = property(fget=get_assessment_taken_id_terms) @abc.abstractmethod def get_assessment_taken_terms(self): """Gets the assessment taken query terms. :return: the assessment taken terms :rtype: ``osid.assessment.AssessmentTakenQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentTakenQueryInspector assessment_taken_terms = property(fget=get_assessment_taken_terms) @abc.abstractmethod def get_bank_id_terms(self): """Gets the bank ``Id`` query terms. :return: the bank ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm bank_id_terms = property(fget=get_bank_id_terms) @abc.abstractmethod def get_bank_terms(self): """Gets the bank query terms. :return: the bank terms :rtype: ``osid.assessment.BankQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.BankQueryInspector bank_terms = property(fget=get_bank_terms) @abc.abstractmethod def get_assessment_query_inspector_record(self, assessment_record_type): """Gets the assessment query inspector record corresponding to the given ``Assessment`` record ``Type``. :param assessment_record_type: an assessment record type :type assessment_record_type: ``osid.type.Type`` :return: the assessment query inspector record :rtype: ``osid.assessment.records.AssessmentQueryInspectorRecord`` :raise: ``NullArgument`` -- ``assessment_record_type`` is ``null`` :raise: ``OperationFailed`` -- unable to complete request :raise: ``Unsupported`` -- ``has_record_type(assessment_record_type)`` is ``false`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.records.AssessmentQueryInspectorRecord class AssessmentOfferedQueryInspector: """The query inspectors provide a means of accessing the match terms of a query. These interfaces are used to examine the actual query terms used in a search or that may be used to create a smart catalog. Query inspectors may be converted to ``OsidQuery`` interfaces for reuse or modification in the search sessions. """ __metaclass__ = abc.ABCMeta @abc.abstractmethod def get_assessment_id_terms(self): """Gets the assessment ``Id`` query terms. :return: the assessment ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_id_terms = property(fget=get_assessment_id_terms) @abc.abstractmethod def get_assessment_terms(self): """Gets the assessment query terms. :return: the assessment terms :rtype: ``osid.assessment.AssessmentQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentQueryInspector assessment_terms = property(fget=get_assessment_terms) @abc.abstractmethod def get_level_id_terms(self): """Gets the level ``Id`` query terms. :return: the level ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm level_id_terms = property(fget=get_level_id_terms) @abc.abstractmethod def get_level_terms(self): """Gets the level query terms. :return: the level terms :rtype: ``osid.grading.GradeQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.grading.GradeQueryInspector level_terms = property(fget=get_level_terms) @abc.abstractmethod def get_items_sequential_terms(self): """Gets the items sequential query terms. :return: the boolean terms :rtype: ``osid.search.terms.BooleanTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.BooleanTerm items_sequential_terms = property(fget=get_items_sequential_terms) @abc.abstractmethod def get_items_shuffled_terms(self): """Gets the items shuffled query terms. :return: the boolean terms :rtype: ``osid.search.terms.BooleanTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.BooleanTerm items_shuffled_terms = property(fget=get_items_shuffled_terms) @abc.abstractmethod def get_start_time_terms(self): """Gets the start time query terms. :return: the start time terms :rtype: ``osid.search.terms.DateTimeTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.DateTimeTerm start_time_terms = property(fget=get_start_time_terms) @abc.abstractmethod def get_deadline_terms(self): """Gets the deadline query terms. :return: the deadline terms :rtype: ``osid.search.terms.DateTimeTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.DateTimeTerm deadline_terms = property(fget=get_deadline_terms) @abc.abstractmethod def get_duration_terms(self): """Gets the deadline query terms. :return: the duration terms :rtype: ``osid.search.terms.DurationTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.DurationTerm duration_terms = property(fget=get_duration_terms) @abc.abstractmethod def get_score_system_id_terms(self): """Gets the grade system ``Id`` query terms. :return: the grade system ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm score_system_id_terms = property(fget=get_score_system_id_terms) @abc.abstractmethod def get_score_system_terms(self): """Gets the grade system query terms. :return: the grade system terms :rtype: ``osid.grading.GradeSystemQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.grading.GradeSystemQueryInspector score_system_terms = property(fget=get_score_system_terms) @abc.abstractmethod def get_grade_system_id_terms(self): """Gets the grade system ``Id`` query terms. :return: the grade system ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm grade_system_id_terms = property(fget=get_grade_system_id_terms) @abc.abstractmethod def get_grade_system_terms(self): """Gets the grade system query terms. :return: the grade system terms :rtype: ``osid.grading.GradeSystemQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.grading.GradeSystemQueryInspector grade_system_terms = property(fget=get_grade_system_terms) @abc.abstractmethod def get_rubric_id_terms(self): """Gets the assessment offered ``Id`` query terms. :return: the assessment offered ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm rubric_id_terms = property(fget=get_rubric_id_terms) @abc.abstractmethod def get_rubric_terms(self): """Gets the assessment query terms. :return: the assessment offered terms :rtype: ``osid.assessment.AssessmentOfferedQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentOfferedQueryInspector rubric_terms = property(fget=get_rubric_terms) @abc.abstractmethod def get_assessment_taken_id_terms(self): """Gets the assessment taken ``Id`` query terms. :return: the assessment taken ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_taken_id_terms = property(fget=get_assessment_taken_id_terms) @abc.abstractmethod def get_assessment_taken_terms(self): """Gets the assessment taken query terms. :return: the assessment taken terms :rtype: ``osid.assessment.AssessmentTakenQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentTakenQueryInspector assessment_taken_terms = property(fget=get_assessment_taken_terms) @abc.abstractmethod def get_bank_id_terms(self): """Gets the bank ``Id`` query terms. :return: the bank ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm bank_id_terms = property(fget=get_bank_id_terms) @abc.abstractmethod def get_bank_terms(self): """Gets the bank query terms. :return: the bank terms :rtype: ``osid.assessment.BankQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.BankQueryInspector bank_terms = property(fget=get_bank_terms) @abc.abstractmethod def get_assessment_offered_query_inspector_record(self, assessment_offered_record_type): """Gets the assessment offered query inspector record corresponding to the given ``AssessmentOffered`` record ``Type``. :param assessment_offered_record_type: an assessment offered record type :type assessment_offered_record_type: ``osid.type.Type`` :return: the assessment offered query inspector record :rtype: ``osid.assessment.records.AssessmentOfferedQueryInspectorRecord`` :raise: ``NullArgument`` -- ``assessment_offered_record_type`` is ``null`` :raise: ``OperationFailed`` -- unable to complete request :raise: ``Unsupported`` -- ``has_record_type(assessment_offered_record_type)`` is ``false`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.records.AssessmentOfferedQueryInspectorRecord class AssessmentTakenQueryInspector: """The query inspectors provide a means of accessing the match terms of a query. These interfaces are used to examine the actual query terms used in a search or that may be used to create a smart catalog. Query inspectors may be converted to ``OsidQuery`` interfaces for reuse or modification in the search sessions. """ __metaclass__ = abc.ABCMeta @abc.abstractmethod def get_assessment_offered_id_terms(self): """Gets the assessment offered ``Id`` query terms. :return: the assessment offered ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_offered_id_terms = property(fget=get_assessment_offered_id_terms) @abc.abstractmethod def get_assessment_offered_terms(self): """Gets the assessment offered query terms. :return: the assessment offered terms :rtype: ``osid.assessment.AssessmentOfferedQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentOfferedQueryInspector assessment_offered_terms = property(fget=get_assessment_offered_terms) @abc.abstractmethod def get_taker_id_terms(self): """Gets the resource ``Id`` query terms. :return: the resource ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm taker_id_terms = property(fget=get_taker_id_terms) @abc.abstractmethod def get_taker_terms(self): """Gets the resource query terms. :return: the resource terms :rtype: ``osid.resource.ResourceQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.resource.ResourceQueryInspector taker_terms = property(fget=get_taker_terms) @abc.abstractmethod def get_taking_agent_id_terms(self): """Gets the agent ``Id`` query terms. :return: the agent ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm taking_agent_id_terms = property(fget=get_taking_agent_id_terms) @abc.abstractmethod def get_taking_agent_terms(self): """Gets the agent query terms. :return: the agent terms :rtype: ``osid.authentication.AgentQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.authentication.AgentQueryInspector taking_agent_terms = property(fget=get_taking_agent_terms) @abc.abstractmethod def get_actual_start_time_terms(self): """Gets the start time query terms. :return: the start time terms :rtype: ``osid.search.terms.DateTimeTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.DateTimeTerm actual_start_time_terms = property(fget=get_actual_start_time_terms) @abc.abstractmethod def get_completion_time_terms(self): """Gets the completion time query terms. :return: the completion time terms :rtype: ``osid.search.terms.DateTimeTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.DateTimeTerm completion_time_terms = property(fget=get_completion_time_terms) @abc.abstractmethod def get_time_spent_terms(self): """Gets the time spent query terms. :return: the time spent terms :rtype: ``osid.search.terms.DurationTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.DurationTerm time_spent_terms = property(fget=get_time_spent_terms) @abc.abstractmethod def get_score_system_id_terms(self): """Gets the grade system ``Id`` query terms. :return: the grade system ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm score_system_id_terms = property(fget=get_score_system_id_terms) @abc.abstractmethod def get_score_system_terms(self): """Gets the grade system query terms. :return: the grade system terms :rtype: ``osid.grading.GradeSystemQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.grading.GradeSystemQueryInspector score_system_terms = property(fget=get_score_system_terms) @abc.abstractmethod def get_score_terms(self): """Gets the score query terms. :return: the score terms :rtype: ``osid.search.terms.DecimalRangeTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.DecimalRangeTerm score_terms = property(fget=get_score_terms) @abc.abstractmethod def get_grade_id_terms(self): """Gets the grade ``Id`` query terms. :return: the grade ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm grade_id_terms = property(fget=get_grade_id_terms) @abc.abstractmethod def get_grade_terms(self): """Gets the grade query terms. :return: the grade terms :rtype: ``osid.grading.GradeQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.grading.GradeQueryInspector grade_terms = property(fget=get_grade_terms) @abc.abstractmethod def get_feedback_terms(self): """Gets the comment query terms. :return: the comment terms :rtype: ``osid.search.terms.StringTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.StringTerm feedback_terms = property(fget=get_feedback_terms) @abc.abstractmethod def get_rubric_id_terms(self): """Gets the assessment taken ``Id`` query terms. :return: the assessment taken ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm rubric_id_terms = property(fget=get_rubric_id_terms) @abc.abstractmethod def get_rubric_terms(self): """Gets the assessment taken query terms. :return: the assessment taken terms :rtype: ``osid.assessment.AssessmentTakenQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentTakenQueryInspector rubric_terms = property(fget=get_rubric_terms) @abc.abstractmethod def get_bank_id_terms(self): """Gets the bank ``Id`` query terms. :return: the bank ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm bank_id_terms = property(fget=get_bank_id_terms) @abc.abstractmethod def get_bank_terms(self): """Gets the bank query terms. :return: the bank terms :rtype: ``osid.assessment.BankQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.BankQueryInspector bank_terms = property(fget=get_bank_terms) @abc.abstractmethod def get_assessment_taken_query_inspector_record(self, assessment_taken_record_type): """Gets the assessment taken query inspector record corresponding to the given ``AssessmentTaken`` record ``Type``. :param assessment_taken_record_type: an assessment taken record type :type assessment_taken_record_type: ``osid.type.Type`` :return: the assessment taken query inspector record :rtype: ``osid.assessment.records.AssessmentTakenQueryInspectorRecord`` :raise: ``NullArgument`` -- ``assessment_taken_record_type`` is ``null`` :raise: ``OperationFailed`` -- unable to complete request :raise: ``Unsupported`` -- ``has_record_type(assessment_taken_record_type)`` is ``false`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.records.AssessmentTakenQueryInspectorRecord class BankQueryInspector: """The query inspectors provide a means of accessing the match terms of a query. These interfaces are used to examine the actual query terms used in a search or that may be used to create a smart catalog. Query inspectors may be converted to ``OsidQuery`` interfaces for reuse or modification in the search sessions. """ __metaclass__ = abc.ABCMeta @abc.abstractmethod def get_item_id_terms(self): """Gets the item ``Id`` query terms. :return: the item ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm item_id_terms = property(fget=get_item_id_terms) @abc.abstractmethod def get_item_terms(self): """Gets the item query terms. :return: the item query terms :rtype: ``osid.assessment.ItemQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.ItemQueryInspector item_terms = property(fget=get_item_terms) @abc.abstractmethod def get_assessment_id_terms(self): """Gets the assessment ``Id`` query terms. :return: the assessment ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_id_terms = property(fget=get_assessment_id_terms) @abc.abstractmethod def get_assessment_terms(self): """Gets the assessment query terms. :return: the assessment terms :rtype: ``osid.assessment.AssessmentQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentQueryInspector assessment_terms = property(fget=get_assessment_terms) @abc.abstractmethod def get_assessment_offered_id_terms(self): """Gets the assessment offered ``Id`` query terms. :return: the assessment offered ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm assessment_offered_id_terms = property(fget=get_assessment_offered_id_terms) @abc.abstractmethod def get_assessment_offered_terms(self): """Gets the assessment offered query terms. :return: the assessment offered terms :rtype: ``osid.assessment.AssessmentOfferedQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.AssessmentOfferedQueryInspector assessment_offered_terms = property(fget=get_assessment_offered_terms) @abc.abstractmethod def get_ancestor_bank_id_terms(self): """Gets the ancestor bank ``Id`` query terms. :return: the ancestor bank ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm ancestor_bank_id_terms = property(fget=get_ancestor_bank_id_terms) @abc.abstractmethod def get_ancestor_bank_terms(self): """Gets the ancestor bank query terms. :return: the ancestor bank terms :rtype: ``osid.assessment.BankQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.BankQueryInspector ancestor_bank_terms = property(fget=get_ancestor_bank_terms) @abc.abstractmethod def get_descendant_bank_id_terms(self): """Gets the descendant bank ``Id`` query terms. :return: the descendant bank ``Id`` terms :rtype: ``osid.search.terms.IdTerm`` *compliance: mandatory -- This method must be implemented.* """ return # osid.search.terms.IdTerm descendant_bank_id_terms = property(fget=get_descendant_bank_id_terms) @abc.abstractmethod def get_descendant_bank_terms(self): """Gets the descendant bank query terms. :return: the descendant bank terms :rtype: ``osid.assessment.BankQueryInspector`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.BankQueryInspector descendant_bank_terms = property(fget=get_descendant_bank_terms) @abc.abstractmethod def get_bank_query_inspector_record(self, bank_record_type): """Gets the bank query inspector record corresponding to the given ``Bank`` record ``Type``. :param bank_record_type: a bank record type :type bank_record_type: ``osid.type.Type`` :return: the bank query inspector record :rtype: ``osid.assessment.records.BankQueryInspectorRecord`` :raise: ``NullArgument`` -- ``bank_record_type`` is ``null`` :raise: ``OperationFailed`` -- unable to complete request :raise: ``Unsupported`` -- ``has_record_type(bank_record_type)`` is ``false`` *compliance: mandatory -- This method must be implemented.* """ return # osid.assessment.records.BankQueryInspectorRecord
29.462992
127
0.669704
4,166
37,418
5.849496
0.043207
0.03447
0.049243
0.072674
0.89183
0.837704
0.78485
0.74246
0.737412
0.726989
0
0
0.234165
37,418
1,269
128
29.48621
0.850398
0.586188
0
0.775316
0
0
0
0
0
0
0
0
0
1
0.243671
false
0
0.003165
0
0.756329
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
1
0
0
0
0
1
0
0
9
125ea6938178733083cd03c81c6365d92f7d5879
2,631
py
Python
src/pages/header.py
ImpulsoGov/farolcovid
4d2d889984f8216589d399fa7e45c2d0f0304308
[ "MIT" ]
28
2020-06-11T12:38:26.000Z
2021-11-22T13:55:13.000Z
src/pages/header.py
ImpulsoGov/simulacovid
4d2d889984f8216589d399fa7e45c2d0f0304308
[ "MIT" ]
62
2020-04-02T02:07:37.000Z
2020-06-02T15:30:48.000Z
src/pages/header.py
ImpulsoGov/farolcovid
4d2d889984f8216589d399fa7e45c2d0f0304308
[ "MIT" ]
18
2020-06-11T12:38:15.000Z
2022-03-04T11:14:45.000Z
import streamlit as st import utils import os def genHeader(active): """ This is a function that returns the "Footer" session """ if os.getenv("IS_HEROKU") == "TRUE": urlpath = os.getenv("urlpath") elif os.getenv("IS_DEV") == "TRUE": urlpath = 'http://localhost:8501/' else: urlpath = 'https://farolcovid.coronacidades.org/' if active=="1": st.write( f""" <div class="conteudo" id="navbar"> <a>&nbsp;</a> <a href="{urlpath}?page=Inicio">Início</a> <a class="active" href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a> <a href="{urlpath}?page=Quem-Somos">Quem somos?</a> <a href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a> <a href="{urlpath}?page=Vacinometro">Vacinômetro</a> </div> """, unsafe_allow_html=True, ) elif active=="2": st.write( f""" <div class="conteudo" id="navbar"> <a>&nbsp;</a> <a href="{urlpath}?page=Inicio">Início</a> <a href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a> <a class="active" href="{urlpath}?page=Quem-Somos">Quem somos?</a> <a href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a> <a href="{urlpath}?page=Vacinometro">Vacinômetro</a> </div> """, unsafe_allow_html=True, ) elif active=="3": st.write( f""" <div class="conteudo" id="navbar"> <a>&nbsp;</a> <a href="{urlpath}?page=Inicio">Início</a> <a href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a> <a href="{urlpath}?page=Quem-Somos">Quem somos?</a> <a class="active" href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a> <a href="{urlpath}?page=Vacinometro">Vacinômetro</a> </div> """, unsafe_allow_html=True, ) elif active=="4": st.write( f""" <div class="conteudo" id="navbar"> <a>&nbsp;</a> <a href="{urlpath}?page=Inicio">Início</a> <a href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a> <a href="{urlpath}?page=Quem-Somos">Quem somos?</a> <a href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a> <a class="active" href="{urlpath}?page=Vacinometro">Vacinômetro</a> </div> """, unsafe_allow_html=True, ) if __name__ == "__main__": main()
34.618421
96
0.530217
302
2,631
4.559603
0.218543
0.029049
0.217865
0.151053
0.814815
0.814815
0.814815
0.782861
0.782861
0.782861
0
0.00429
0.291144
2,631
75
97
35.08
0.734048
0.019764
0
0.647059
0
0.044118
0.74374
0.331768
0
0
0
0
0
1
0.014706
false
0
0.044118
0
0.058824
0
0
0
0
null
0
1
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
89f8b30e153ac96b1125378ffc1d08a896cac643
59,727
py
Python
calaccess_raw/migrations/0017_auto_20210422_0047.py
california-civic-data-coalition/django-calaccess-raw-data
f2e5adbbb295326a88c3c9a505b6fe4d4377328f
[ "MIT" ]
48
2015-01-10T18:06:03.000Z
2022-01-27T16:48:29.000Z
calaccess_raw/migrations/0017_auto_20210422_0047.py
world-admin/django-calaccess-raw-data
f2e5adbbb295326a88c3c9a505b6fe4d4377328f
[ "MIT" ]
1,193
2015-01-07T06:35:20.000Z
2021-06-19T11:43:20.000Z
calaccess_raw/migrations/0017_auto_20210422_0047.py
world-admin/django-calaccess-raw-data
f2e5adbbb295326a88c3c9a505b6fe4d4377328f
[ "MIT" ]
163
2015-01-10T18:06:09.000Z
2022-01-14T00:29:12.000Z
# Generated by Django 3.2 on 2021-04-22 00:47 import calaccess_raw.annotations.documents import calaccess_raw.annotations.forms import calaccess_raw.fields from django.db import migrations, models class Migration(migrations.Migration): dependencies = [ ('calaccess_raw', '0016_auto_20200818_0542'), ] operations = [ migrations.AlterField( model_name='acronymscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='addresscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='ballotmeasurescd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvr2campaigndisclosurecd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvr2lobbydisclosurecd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=57), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=71)], help_text='Name of the source filing form or schedule', max_length=4), ), migrations.AlterField( model_name='cvr2lobbydisclosurecd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvr2registrationcd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=72), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=87)], help_text='Name of the source filing form or schedule', max_length=10), ), migrations.AlterField( model_name='cvr2registrationcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvr2socd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 400 (Statement of Organization (Slate Mailer Organization)): Part 3, Individuals Who Authorize Contents Of Slate Mailers'), ('', 'Form 410 (Statement of Organization (Recipient Committee)): Part 4, Type of Committee')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=38), calaccess_raw.annotations.documents.DocumentCloud(end_page=46, id='2712033-Cal-Format-1-05-02', start_page=45), calaccess_raw.annotations.documents.DocumentCloud(end_page=59, id='2712034-Cal-Format-201', start_page=58)], help_text="Form type of the filing the record is included in. This must equal the form_type of the parent filing's cover (CVR) record.", max_length=4, verbose_name='form type'), ), migrations.AlterField( model_name='cvr2socd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvr3verificationinfocd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvrcampaigndisclosurecd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvre530cd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Electronic Form 530: Electronic Issue Advocacy Report')], db_column='FORM_TYPE', db_index=True, help_text='Name of the source filing form or schedule', max_length=4, verbose_name='form type'), ), migrations.AlterField( model_name='cvre530cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvrf470cd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 470: Campaign Disclosure Statement, Short Form (Officeholders and Candidates)')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=22), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=29)], help_text='Type of Filing or Formset. The value of this column will always be equal to F470.', max_length=4), ), migrations.AlterField( model_name='cvrf470cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvrlobbydisclosurecd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=53), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=66)], help_text='Name of the source filing form or schedule', max_length=4), ), migrations.AlterField( model_name='cvrlobbydisclosurecd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvrregistrationcd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=68), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=82)], help_text='Name of the source filing form or schedule', max_length=4), ), migrations.AlterField( model_name='cvrregistrationcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='cvrsocd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='debtcd', name='expn_code', field=calaccess_raw.fields.CharField(blank=True, choices=[('CMP', 'campaign paraphernalia/miscellaneous'), ('CNS', 'campaign consultants'), ('CTB', 'contribution (if nonmonetary, explain)*'), ('CVC', 'civic donations'), ('FIL', 'candidate filing/ballot feeds'), ('FND', 'fundraising events'), ('IKD', 'In-kind contribution (nonmonetary)'), ('IND', 'independent expenditure supporting/opposing others (explain)*'), ('LEG', 'legal defense'), ('LIT', 'campaign literature and mailings'), ('LON', 'loan'), ('MBR', 'member communications'), ('MON', 'monetary contribution'), ('MTG', 'meetings and appearances'), ('OFC', 'office expenses'), ('PET', 'petition circulating'), ('PHO', 'phone banks'), ('POL', 'polling and survey research'), ('POS', 'postage, delivery and messenger services'), ('PRO', 'professional services (legal, accounting)'), ('PRT', 'print ads'), ('RAD', 'radio airtime and production costs'), ('RFD', 'returned contributions'), ('SAL', 'campaign workers salaries'), ('TEL', 'T.V. or cable airtime and production costs'), ('TRC', 'candidate travel, lodging and meals (explain)'), ('TRS', 'staff/spouse travel, lodging and meals (explain)'), ('TSF', 'transfer between committees of the same candidate/sponsor'), ('VOT', 'voter registration'), ('WEB', 'information technology costs (internet, e-mail)'), ('Fnd', 'fundraising events'), ('ofc', 'office expenses'), ("'CN", 'campaign consultants'), ('*', 'Unknown'), ('AIR', 'Unknown'), ('BUS', 'Unknown'), ('C', 'Unknown'), ('CAM', 'Unknown'), ('CC', 'Unknown'), ('COM', 'Unknown'), ('CON', 'Unknown'), ('CSN', 'Unknown'), ('DEP', 'Unknown'), ('EVE', 'Unknown'), ('F', 'Unknown'), ('FED', 'Unknown'), ('fns', 'Unknown'), ('G', 'Unknown'), ('GGG', 'Unknown'), ('HOT', 'Unknown'), ('L', 'Unknown'), ('LDF', 'Unknown'), ('MEE', 'Unknown'), ('N', 'Unknown'), ('O', 'Unknown'), ('OTH', 'Unknown'), ('P', 'Unknown'), ('PEN', 'Unknown'), ('S', 'Unknown'), ('SPE', 'Unknown'), ('STA', 'Unknown'), ('T', 'Unknown'), ('TAX', 'Unknown'), ('TRA', 'Unknown'), ('V', 'Unknown'), ('X', 'Unknown')], db_column='EXPN_CODE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=11), calaccess_raw.annotations.documents.DocumentCloud(end_page=14, id='2712034-Cal-Format-201', start_page=13)], help_text='Expense Code', max_length=4, verbose_name='expense code'), ), migrations.AlterField( model_name='debtcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='efsfilinglogcd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 400: Statement of Organization (Slate Mailer Organization)'), ('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 402: Statement of Termination (Slate Mailer Organization)'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('BADFORMAT 253', 'Unknown'), ('form', 'Unknown')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(end_page=8, id='2711624-Overview', start_page=4)], help_text='Name of the source filing form or schedule', max_length=250, verbose_name='form type'), ), migrations.AlterField( model_name='efsfilinglogcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='expncd', name='expn_code', field=calaccess_raw.fields.CharField(blank=True, choices=[('CMP', 'campaign paraphernalia/miscellaneous'), ('CNS', 'campaign consultants'), ('CTB', 'contribution (if nonmonetary, explain)*'), ('CVC', 'civic donations'), ('FIL', 'candidate filing/ballot feeds'), ('FND', 'fundraising events'), ('IKD', 'In-kind contribution (nonmonetary)'), ('IND', 'independent expenditure supporting/opposing others (explain)*'), ('LEG', 'legal defense'), ('LIT', 'campaign literature and mailings'), ('LON', 'loan'), ('MBR', 'member communications'), ('MON', 'monetary contribution'), ('MTG', 'meetings and appearances'), ('OFC', 'office expenses'), ('PET', 'petition circulating'), ('PHO', 'phone banks'), ('POL', 'polling and survey research'), ('POS', 'postage, delivery and messenger services'), ('PRO', 'professional services (legal, accounting)'), ('PRT', 'print ads'), ('RAD', 'radio airtime and production costs'), ('RFD', 'returned contributions'), ('SAL', 'campaign workers salaries'), ('TEL', 'T.V. or cable airtime and production costs'), ('TRC', 'candidate travel, lodging and meals (explain)'), ('TRS', 'staff/spouse travel, lodging and meals (explain)'), ('TSF', 'transfer between committees of the same candidate/sponsor'), ('VOT', 'voter registration'), ('WEB', 'information technology costs (internet, e-mail)'), ('ctb', 'contribution (if nonmonetary, explain)*'), ('ikd', 'In-kind contribution (nonmonetary)'), ('Mon', 'monetary contribution'), ('ofc', 'office expenses'), ('OFc', 'office expenses'), ('Ofc', 'office expenses'), ('', 'Unknown'), ('*', 'Unknown'), ('0', 'Unknown'), ('001', 'Unknown'), ('011', 'Unknown'), ('200', 'Unknown'), ('401', 'Unknown'), ('ADV', 'Unknown'), ('ANN', 'Unknown'), ('APR', 'Unknown'), ('AUG', 'Unknown'), ('AUT', 'Unknown'), ('Ban', 'Unknown'), ('BAN', 'Unknown'), ('BOO', 'Unknown'), ('BOX', 'Unknown'), ('C', 'Unknown'), ('CAT', 'Unknown'), ('CC', 'Unknown'), ('CHE', 'Unknown'), ('CIV', 'Unknown'), ('CNT', 'Unknown'), ('CON', 'Unknown'), ('COP', 'Unknown'), ('CRE', 'Unknown'), ('CSN', 'Unknown'), ('CT', 'Unknown'), (',CT', 'Unknown'), ('.CT', 'Unknown'), ('CTN', 'Unknown'), ('CVD', 'Unknown'), ('DAT', 'Unknown'), ('DEC', 'Unknown'), ('Dem', 'Unknown'), ('DIN', 'Unknown'), ('Don', 'Unknown'), ('DON', 'Unknown'), ('Ear', 'Unknown'), ('EIM', 'Unknown'), ('EMP', 'Unknown'), ('F', 'Unknown'), ('FAX', 'Unknown'), ('FDN', 'Unknown'), ('FED', 'Unknown'), ('FEE', 'Unknown'), ('FIN', 'Unknown'), ('Fun', 'Unknown'), ('FUN', 'Unknown'), ('G', 'Unknown'), ('GEN', 'Unknown'), ('GGG', 'Unknown'), ('GOT', 'Unknown'), ('IEs', 'Unknown'), ('IN-', 'Unknown'), ('Ina', 'Unknown'), ('INK', 'Unknown'), ('INS', 'Unknown'), ('ITE', 'Unknown'), ('JAN', 'Unknown'), ('JUL', 'Unknown'), ('JUN', 'Unknown'), ('KIC', 'Unknown'), ('L', 'Unknown'), ('LEV', 'Unknown'), ('Lit', 'Unknown'), ('LN#', 'Unknown'), ('LOG', 'Unknown'), ('M', 'Unknown'), ('MAI', 'Unknown'), ('Mar', 'Unknown'), ('MAR', 'Unknown'), ('MAY', 'Unknown'), ('MED', 'Unknown'), ('MEE', 'Unknown'), ('MGT', 'Unknown'), ('Mis', 'Unknown'), ('MRB', 'Unknown'), ('NGP', 'Unknown'), ('NON', 'Unknown'), ('NOT', 'Unknown'), ('NOV', 'Unknown'), ('O', 'Unknown'), ('OCT', 'Unknown'), ('.OF', 'Unknown'), ('OFF', 'Unknown'), ('OPE', 'Unknown'), ('OTH', 'Unknown'), ('P', 'Unknown'), ('Pac', 'Unknown'), ('PAI', 'Unknown'), ('PAR', 'Unknown'), ('PAY', 'Unknown'), ('PEN', 'Unknown'), ('PMT', 'Unknown'), ('.PO', 'Unknown'), ('Pos', 'Unknown'), ('PRE', 'Unknown'), ('PRI', 'Unknown'), ('PRP', 'Unknown'), ('R', 'Unknown'), ('.Re', 'Unknown'), ('.RE', 'Unknown'), ('REF', 'Unknown'), ('REI', 'Unknown'), ('RFP', 'Unknown'), ('S', 'Unknown'), ('S-A', 'Unknown'), ('SA', 'Unknown'), ('Sal', 'Unknown'), ('S C', 'Unknown'), ('S.C', 'Unknown'), ('SCU', 'Unknown'), ('SEE', 'Unknown'), ('SEN', 'Unknown'), ('SEP', 'Unknown'), ('S.M.', 'Unknown'), ('SOF', 'Unknown'), ('SWI', 'Unknown'), ('T', 'Unknown'), ('TAX', 'Unknown'), ('TB', 'Unknown'), ('TB,', 'Unknown'), ('TIC', 'Unknown'), ('Tor', 'Unknown'), ('TRA', 'Unknown'), ('TRF', 'Unknown'), ('TRV', 'Unknown'), ('UN', 'Unknown'), ('UTI', 'Unknown'), ('V', 'Unknown'), ('VEN', 'Unknown'), ('-VO', 'Unknown'), ('VOI', 'Unknown'), ('VOY', 'Unknown'), ('WI', 'Unknown'), ('x', 'Unknown'), ('X', 'Unknown'), ('S-6', 'Unknown'), ('S.M', 'Unknown'), ('S-4', 'Unknown'), ('SA:', 'Unknown'), ('100', 'Unknown'), ('RFN', 'Unknown'), ('REN', 'Unknown'), ('003', 'Unknown'), ('S-1', 'Unknown'), ('08', 'Unknown')], db_column='EXPN_CODE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=11), calaccess_raw.annotations.documents.DocumentCloud(end_page=14, id='2712034-Cal-Format-201', start_page=13)], help_text='The type of expenditure', max_length=4, verbose_name='expense code'), ), migrations.AlterField( model_name='expncd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('F450P5', 'Form 450 (Campaign Disclosure Statement, Short Form (Recipient Committee)): Part 5, Payments Made'), ('D', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule D, Summary of Expenditures Supporting / Opposing Other Candidates, Measures and Committees'), ('E', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule E, Payments Made'), ('G', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule G, Payments Made by an Agent or Independent Contractor (on Behalf of This Committee)'), ('F461P5', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 5, Contributions (Including Loans, Forgiveness of Loans, and LoanGuarantees) and Expenditures Made'), ('F465P3', 'Form 465 (Supplemental Independent Expenditure Report): Part 3, Independent Expenditures Made'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=31), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=42)], help_text='Name of the source filing form or schedule', max_length=6), ), migrations.AlterField( model_name='expncd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='f495p2cd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 495: Supplemental Pre-Election Campaign Statement (Recipient Committee)')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=26), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=35)], help_text='Name of the source filing form to which the Form 495 is attached (must equal Form_Type in CVR record)', max_length=4), ), migrations.AlterField( model_name='f495p2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='f501502cd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 501: Candidate Intention Statement'), ('', 'Form 502: Campaign Bank Account Statement')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711614-CalAccessTablesWeb', start_page=58)], help_text='Name of the source filing form or schedule', max_length=4), ), migrations.AlterField( model_name='f501502cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='f690p2cd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=58), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=72)], help_text='Name of the source filing form or schedule', max_length=4), ), migrations.AlterField( model_name='f690p2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='fileracronymscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='fileraddresscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filerethicsclasscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filerfilingscd', name='form_id', field=calaccess_raw.fields.CharField(choices=[('', 'Form 400: Statement of Organization (Slate Mailer Organization)'), ('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 402: Statement of Termination (Slate Mailer Organization)'), ('', 'Form 405: Amendment to Campaign Disclosure Statement'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 415: Title Unknown'), ('', 'Form 416: Title Unknown'), ('', 'Form 419: Campaign Disclosure Statement, Long Form (Ballot Measure Committee)'), ('', 'Form 420: Campaign Disclosure Statement, Long Form (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 430: Title Unknown'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 470: Campaign Disclosure Statement, Short Form (Officeholders and Candidates)'), ('', 'Form 490: Campaign Disclosure Statement, Long Form (Officeholders and Candidates)'), ('', 'Form 495: Supplemental Pre-Election Campaign Statement (Recipient Committee)'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 501: Candidate Intention Statement'), ('', 'Form 502: Campaign Bank Account Statement'), ('', 'Form 511: Paid Spokesperson Report'), ('', 'Electronic Form 530: Electronic Issue Advocacy Report'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 605: Amendment to Registration, Lobbying Firm, Lobbyist Employer, Lobbying Coalition'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Schedule 630: Payments Made to Lobbying Coalitions (Attachment to Form 625 or 635)'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('S635-C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('', 'Form 690: Amendment to Lobbying Disclosure Report'), ('', 'Form 700: Statement of Economic Interest'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)'), ('F111', 'Unknown'), ('F410 AT', 'Unknown'), ('F410ATR', 'Unknown'), ('F421', 'Unknown'), ('F440', 'Unknown'), ('F470S', 'Form 470: Campaign Disclosure Statement, Short Form (Officeholders and Candidates)'), ('F480', 'Unknown'), ('F500', 'Unknown'), ('F501502', 'Forms 501 and/or 502 (Candidate Intention and/or Bank Account Statements)'), ('F555', 'Unknown'), ('F666', 'Unknown'), ('F777', 'Unknown'), ('F888', 'Unknown'), ('F999', 'Unknown')], db_column='FORM_ID', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711614-CalAccessTablesWeb', start_page=65)], help_text='Form identification code', max_length=7, verbose_name='form type'), ), migrations.AlterField( model_name='filerfilingscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filerinterestscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filerlinkscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filernamecd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filerscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filerstatustypescd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filertofilertypecd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filertypeperiodscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filerxrefcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filingperiodcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='filingscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='grouptypescd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='hdrcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='headercd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='imagelinkscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lattcd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Schedule 630: Payments Made to Lobbying Coalitions (Attachment to Form 625 or 635)'), ('S635-C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=52), calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=65), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=79)], help_text='Name of the source filing form or schedule', max_length=6), ), migrations.AlterField( model_name='lattcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lccmcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='legislativesessionscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lempcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lexpcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='loancd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyamendmentscd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=74), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=88)], help_text='Name of the source filing form or schedule', max_length=9), ), migrations.AlterField( model_name='lobbyamendmentscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyingchglogcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistcontributions1cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistcontributions2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistcontributions3cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemplobbyist1cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemplobbyist2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemployer1cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemployer2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemployer3cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemployerfirms1cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemployerfirms2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistemployerhistorycd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirm1cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirm2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirm3cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirmemployer1cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirmemployer2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirmhistorycd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirmlobbyist1cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lobbyistfirmlobbyist2cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lookupcodescd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lothcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='lpaycd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='namescd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='rawdatafile', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='rawdataversion', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='rcptcd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Electronic Form 530: Electronic Issue Advocacy Report'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)'), ('F401A', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule A, Payments Received'), ('A', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule A, Monetary Contributions Received'), ('A-1', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule A-1, Contributions Transferred to Special Election Commitee'), ('C', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule C, Non-Monetary Contributions Received'), ('I', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule I, Miscellanous increases to cash'), ('F496P3', 'Form 496 (Late Independent Expenditure Report): Part 3, Contributions > $100 Received')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=29), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=37)], help_text='Name of the source filing form or schedule', max_length=9), ), migrations.AlterField( model_name='rcptcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='receivedfilingscd', name='form_id', field=calaccess_raw.fields.CharField(blank=True, choices=[('', 'Form 400: Statement of Organization (Slate Mailer Organization)'), ('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 402: Statement of Termination (Slate Mailer Organization)'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More')], db_column='FORM_ID', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(end_page=8, id='2711624-Overview', start_page=4)], help_text='Form identification code', max_length=7, verbose_name='form identification code'), ), migrations.AlterField( model_name='receivedfilingscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='reportscd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='s401cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='s496cd', name='form_type', field=calaccess_raw.fields.CharField(blank=True, choices=[('', 'Form 496: Late Independent Expenditure Report')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=40), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=53)], help_text='Name of the source filing form or schedule', max_length=4), ), migrations.AlterField( model_name='s496cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='s497cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='s498cd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='smrycd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('F401A', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule A, Payments Received'), ('F401B', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B, Payments Made'), ('F401B-1', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B-1, Payments Made by Agent or Independent Contractor'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('A', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule A, Monetary Contributions Received'), ('B1', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule B, Part 1, Loans Received'), ('B2', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule B, Part 2, Loan Guarantors'), ('B3', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule B, Part 3, Outstanding Balance'), ('C', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule C, Non-Monetary Contributions Received'), ('D', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule D, Summary of Expenditures Supporting / Opposing Other Candidates, Measures and Committees'), ('E', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule E, Payments Made'), ('F', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule F, Accrued Expenses (Unpaid Bills)'), ('G', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule G, Payments Made by an Agent or Independent Contractor (on Behalf of This Committee)'), ('H', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Loans Made to Others'), ('H1', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Part 1, Loans Made'), ('H2', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Part 2, Repayments Rcvd'), ('H3', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Part 3, Outstanding Loans'), ('I', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule I, Miscellanous increases to cash'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 625: Report of Lobbying Firm'), ('F625P2', 'Form 625 (Report of Lobbying Firm): Part 2, Payments Received in Connection with Lobbying Activity'), ('F625P3A', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section A, Activity Expenses'), ('F625P3B', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section B, Payments Made'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('F635P3A', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section A, Payments To In-house Employee Lobbyists'), ('F635P3B', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section B, Payments To Lobbying Firms'), ('F635P3C', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section C, Activity Expenses'), ('F635P3D', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section D, Other Payments to Influence Legislative or Administrative Action'), ('F635P3E', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section E, Payments in Connection with Administrative Testimony in Ratemaking Proceedings Before The California Public Utilities Commission'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('F645P2A', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section A, Activity Expenses'), ('F645P2B', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section B, Other Payments to Influence Legislative or Administrative Action'), ('F645P2C', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section C, Payments in Connection with Administrative Testimony in Ratemaking Proceedings Before the California Public Utilities Commission'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)'), ('401A', calaccess_raw.annotations.forms.FilingFormSection(db_value='F401A', documentcloud_id=None, end_page='7', form=calaccess_raw.annotations.forms.FilingForm(db_value='', description='Form 401 is filed by slate mailer organizations to disclose payments made and received in connection with producing slate mailers.', documentcloud_id='2781366-401-2005-01', group='CAMPAIGN', id='F401', title='Campaign Disclosure Statement (Slate Mailer Organization)'), id='A', start_page='5', title='Schedule A, Payments Received')), ('401B', calaccess_raw.annotations.forms.FilingFormSection(db_value='F401B', documentcloud_id=None, end_page='9', form=calaccess_raw.annotations.forms.FilingForm(db_value='', description='Form 401 is filed by slate mailer organizations to disclose payments made and received in connection with producing slate mailers.', documentcloud_id='2781366-401-2005-01', group='CAMPAIGN', id='F401', title='Campaign Disclosure Statement (Slate Mailer Organization)'), id='B', start_page='8', title='Schedule B, Payments Made')), ('401B-1', calaccess_raw.annotations.forms.FilingFormSection(db_value='F401B-1', documentcloud_id=None, end_page='', form=calaccess_raw.annotations.forms.FilingForm(db_value='', description='Form 401 is filed by slate mailer organizations to disclose payments made and received in connection with producing slate mailers.', documentcloud_id='2781366-401-2005-01', group='CAMPAIGN', id='F401', title='Campaign Disclosure Statement (Slate Mailer Organization)'), id='B-1', start_page='10', title='Schedule B-1, Payments Made by Agent or Independent Contractor'))], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=86), calaccess_raw.annotations.documents.DocumentCloud(end_page=28, id='2712033-Cal-Format-1-05-02', start_page=27), calaccess_raw.annotations.documents.DocumentCloud(end_page=60, id='2712033-Cal-Format-1-05-02', start_page=59), calaccess_raw.annotations.documents.DocumentCloud(end_page=37, id='2712034-Cal-Format-201', start_page=36), calaccess_raw.annotations.documents.DocumentCloud(end_page=74, id='2712034-Cal-Format-201', start_page=73)], help_text='Name of the source filing form or schedule', max_length=8), ), migrations.AlterField( model_name='smrycd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='spltcd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), migrations.AlterField( model_name='textmemocd', name='form_type', field=calaccess_raw.fields.CharField(choices=[('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 405: Amendment to Campaign Disclosure Statement'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 605: Amendment to Registration, Lobbying Firm, Lobbyist Employer, Lobbying Coalition'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('', 'Schedule 630: Payments Made to Lobbying Coalitions (Attachment to Form 625 or 635)'), ('S635-C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)'), ('410', 'Form 410: Statement of Organization (Recipient Committee)'), ('460', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('461', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('465', 'Form 465: Supplemental Independent Expenditure Report'), ('496', 'Form 496: Late Independent Expenditure Report'), ('497', 'Form 497: Late Contribution Report'), ('497P1', 'Form 497 (Late Contribution Report): Part 1, Contributions Received'), ('497P2', 'Form 497 (Late Contribution Report): Part 2, Contributions Made'), ('F401A', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule A, Payments Received'), ('F401B', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B, Payments Made'), ('F401B-1', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B-1, Payments Made by Agent or Independent Contractor'), ('F450P5', 'Form 450 (Campaign Disclosure Statement, Short Form (Recipient Committee)): Part 5, Payments Made'), ('F461P1', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 1, Name and Address of Filer'), ('F461P2', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 2, Nature and Interests of Filer'), ('F461P5', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 5, Contributions (Including Loans, Forgiveness of Loans, and LoanGuarantees) and Expenditures Made'), ('F465P3', 'Form 465 (Supplemental Independent Expenditure Report): Part 3, Independent Expenditures Made'), ('F496P3', 'Form 496 (Late Independent Expenditure Report): Part 3, Contributions > $100 Received'), ('F497P1', 'Form 497 (Late Contribution Report): Part 1, Contributions Received'), ('F497P2', 'Form 497 (Late Contribution Report): Part 2, Contributions Made'), ('F498-A', 'Form 498 (Late Payment Report (Slate Mailer Organization)): Part A, Late Payments Attributed To'), ('F498-R', 'Form 498 (Late Payment Report (Slate Mailer Organization)): Part R, Late Payments Received From'), ('F601P2A', 'Form 601 (Lobbying Firm Registration Statement): Part 2, Section A, Lobbyist Employers'), ('F601P2B', 'Form 601 (Lobbying Firm Registration Statement): Part 2, Section B, Subcontracted Clients'), ('F615P1', 'Form 615 (Lobbyist Report): Part 1, Activity Expenses Paid, Incurred, Arranged or Provided by the Lobbyist'), ('F615P2', 'Form 615 (Lobbyist Report): Part 2, Campaign Contributions Made or Delivered'), ('F625P2', 'Form 625 (Report of Lobbying Firm): Part 2, Payments Received in Connection with Lobbying Activity'), ('F625P3A', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section A, Activity Expenses'), ('F625P3B', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section B, Payments Made'), ('F625P4B', 'Form 625 (Report of Lobbying Firm): Part 4, Campaign Contributions Made'), ('S635', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('F635P3B', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section B, Payments To Lobbying Firms'), ('F635P3C', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section C, Activity Expenses'), ('F635P4B', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 4, Campaign Contributions Made'), ('F645P2A', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section A, Activity Expenses'), ('F645P3B', 'Form 645 (Report of Person Spending $5,000 or More): Part 3, Campaign Contributions Made'), ('S497', 'Form 497: Late Contribution Report'), ('S635C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('A', 'Schedule A of any form (e.g., Forms 401 or 460)'), ('A4', 'Schedule A of any form (e.g., Forms 401 or 460)'), ('A6', 'Schedule A of any form (e.g., Forms 401 or 460)'), ('B', 'Schedule B of any form (e.g., Forms 401 or 460)'), ('B1', 'Schedule B, Part 1 of Forms 401 or 460'), ('B2', 'Schedule B, Part 2 of Forms 401 or 460'), ('B3', 'Schedule B, Part 3 of Forms 401 or 460'), ('C', 'Schedule C of any form (e.g., Forms 401 or F460)'), ('COMMENTS', 'Possibly comments by FPPC for any form?'), ('CVR', 'Cover page for any form (e.g., Forms 460, 461 or 497)'), ('D', 'Schedule D of any form (e.g., Forms 401, 460 or 461)'), ('DEBTF', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule F, Accrued Expenses (Unpaid Bills)'), ('E', 'Schedule E of any form (e.g., Forms 460, 461 or 465)'), ('EXPNT', 'Expenditures outlined on any form (e.g. Form 460)'), ('F', 'Schedule F of any form (e.g., Form 460)'), ('G', 'Schedule G of any form (e.g., Form 460)'), ('H', 'Schedule H of any form (e.g., Form 460)'), ('H1', 'Schedule H, Part 1 of any form (e.g., Form 460)'), ('H2', 'Schedule H2, Part 2 of any form (e.g., Form 460)'), ('H3', 'Schedule H3, Part 3 of any form (e.g., Form 460)'), ('I', 'Schedule I of any form (e.g., Form 460)'), ('PT5', 'Part 5 of any form (e.g., Form 461'), ('RCPTB1', 'Schedule B, Part 1 of any form (e.g., Form 460'), ('RCPTC', 'Schedule C of any form (e.g., Form 460)'), ('RCPTI', 'Schedule I of any form (e.g., Form 460)'), ('SCH A', 'Schedule A of any form (e.g., Form 460)'), ('SF', 'Schedule F of any form (e.g., Form 460)'), ('SPLT', 'A memo that applies to multiple items?'), ('SMRY', 'Summary section of any form (e.g., Form 460)'), ('SUM', 'Summary section of any form (e.g., Form 460)'), ('SUMMARY', 'Summary section of any form (e.g., Form 460)')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=90), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=16), calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=13)], help_text='Name of the source filing form or schedule', max_length=8, verbose_name='form type'), ), migrations.AlterField( model_name='textmemocd', name='id', field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'), ), ]
112.268797
8,021
0.676093
6,954
59,727
5.713115
0.105838
0.024466
0.064814
0.075184
0.881145
0.864079
0.844748
0.821012
0.807043
0.776284
0
0.042446
0.172049
59,727
531
8,022
112.480226
0.760955
0.00072
0
0.824762
1
0.062857
0.480765
0.02572
0
0
0
0
0
1
0
false
0
0.007619
0
0.013333
0.00381
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
1
1
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
10
d60982a5b24a637b89ee1eaa4568a36a2766c452
151
py
Python
amulog/alg/drain/__init__.py
cpflat/amulog
b7a8c7478d2e5253158f0bce3a7f7109d23e40cb
[ "BSD-3-Clause" ]
5
2019-07-03T09:57:30.000Z
2021-02-13T13:15:47.000Z
amulog/alg/drain/__init__.py
cpflat/amulog
b7a8c7478d2e5253158f0bce3a7f7109d23e40cb
[ "BSD-3-Clause" ]
null
null
null
amulog/alg/drain/__init__.py
cpflat/amulog
b7a8c7478d2e5253158f0bce3a7f7109d23e40cb
[ "BSD-3-Clause" ]
1
2021-09-09T02:21:42.000Z
2021-09-09T02:21:42.000Z
from .drain import LTGenDrain as LTGen from .drain import init_ltgen from .drain import get_param_candidates from .drain import init_ltgen_with_params
30.2
41
0.854305
24
151
5.125
0.5
0.292683
0.487805
0.325203
0.390244
0
0
0
0
0
0
0
0.119205
151
4
42
37.75
0.924812
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
8
c3ae70e662fc020cee6ca8d55c3855dfde036326
14,637
py
Python
tests/test_feed.py
exxamalte/python-aio-georss-client
045a8ad0b5f8969c5634b18bbb3360e085089432
[ "Apache-2.0" ]
null
null
null
tests/test_feed.py
exxamalte/python-aio-georss-client
045a8ad0b5f8969c5634b18bbb3360e085089432
[ "Apache-2.0" ]
4
2020-12-30T10:54:30.000Z
2022-03-05T09:54:45.000Z
tests/test_feed.py
exxamalte/python-aio-georss-client
045a8ad0b5f8969c5634b18bbb3360e085089432
[ "Apache-2.0" ]
1
2021-06-05T12:47:30.000Z
2021-06-05T12:47:30.000Z
"""Tests for base classes.""" import datetime import aiohttp import pytest from aio_georss_client.consts import UPDATE_ERROR, UPDATE_OK from aio_georss_client.xml_parser.geometry import BoundingBox, Point, Polygon from tests import MockGeoRssFeed from tests.utils import load_fixture HOME_COORDINATES_1 = (-31.0, 151.0) HOME_COORDINATES_2 = (-37.0, 150.0) @pytest.mark.asyncio async def test_update_ok(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) assert ( repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), " "url=http://test.url/testpath, radius=None, " "categories=None)>" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 5 feed_entry = entries[0] assert feed_entry.title == "Title 1" assert feed_entry.external_id == "1234" assert feed_entry.category == "Category 1" assert feed_entry.published == datetime.datetime(2018, 9, 23, 8, 30) assert feed_entry.updated == datetime.datetime(2018, 9, 23, 8, 35) assert feed_entry.coordinates == (-37.2345, 149.1234) assert round(abs(feed_entry.distance_to_home - 714.4), 1) == 0 assert repr(feed_entry) == "<MockFeedEntry(id=1234)>" feed_entry = entries[1] assert feed_entry.title == "Title 2" assert feed_entry.external_id == "2345" assert feed_entry.attribution is None assert repr(feed_entry) == "<MockFeedEntry(id=2345)>" feed_entry = entries[2] assert feed_entry.title == "Title 3" assert feed_entry.external_id == "Title 3" feed_entry = entries[3] assert feed_entry.title is None assert feed_entry.external_id == hash(feed_entry.coordinates) feed_entry = entries[4] assert feed_entry.title == "Title 5" assert feed_entry.external_id == "5678" @pytest.mark.asyncio async def test_update_ok_feed_2(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_2.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 1 feed_entry = entries[0] assert feed_entry.title == "Title 1" assert feed_entry.external_id == "1234" assert feed_entry.category == "Category 1" assert feed_entry.coordinates == (-37.2345, 149.1234) assert round(abs(feed_entry.distance_to_home - 714.4), 1) == 0 @pytest.mark.asyncio async def test_update_ok_feed_3(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_3.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 5 feed_entry = entries[0] assert feed_entry.external_id == "1234" assert len(feed_entry.geometries) == 1 assert isinstance(feed_entry.geometries[0], Polygon) assert feed_entry.coordinates == (-34.93728111547821, 148.59710883878262) assert round(abs(feed_entry.distance_to_home - 491.7), 1) == 0 feed_entry = entries[1] assert feed_entry.external_id == "2345" assert len(feed_entry.geometries) == 2 assert isinstance(feed_entry.geometries[0], Point) assert isinstance(feed_entry.geometries[1], Polygon) assert feed_entry.coordinates == (-34.937170989, 148.597182317) assert round(abs(feed_entry.distance_to_home - 491.7), 1) == 0 feed_entry = entries[2] assert feed_entry.external_id == "3456" assert len(feed_entry.geometries) == 2 assert isinstance(feed_entry.geometries[0], Polygon) assert isinstance(feed_entry.geometries[1], Polygon) assert feed_entry.coordinates == (-29.962746645660683, 152.43090880416074) assert round(abs(feed_entry.distance_to_home - 176.5), 1) == 0 feed_entry = entries[3] assert feed_entry.external_id == "4567" assert len(feed_entry.geometries) == 2 assert isinstance(feed_entry.geometries[0], Point) assert isinstance(feed_entry.geometries[1], Point) assert feed_entry.coordinates == (-33.2345, 154.789) assert round(abs(feed_entry.distance_to_home - 172.3), 1) == 0 feed_entry = entries[4] assert feed_entry.external_id == "5678" assert len(feed_entry.geometries) == 2 assert isinstance(feed_entry.geometries[0], Point) assert isinstance(feed_entry.geometries[1], Polygon) assert feed_entry.coordinates == (-31.2345, 152.789) assert round(abs(feed_entry.distance_to_home - 172.3), 1) == 0 @pytest.mark.asyncio async def test_update_ok_feed_6(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_6.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 1 feed_entry = entries[0] assert feed_entry.external_id == "1234" assert len(feed_entry.geometries) == 1 assert isinstance(feed_entry.geometries[0], BoundingBox) assert feed_entry.coordinates == (-20.9041, 168.5652) assert round(abs(feed_entry.distance_to_home - 1493.3), 1) == 0 @pytest.mark.asyncio async def test_update_duplicate_geometries(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_7.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) assert ( repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), " "url=http://test.url/testpath, radius=None, " "categories=None)>" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 4 feed_entry = entries[0] assert feed_entry.external_id == "1234" assert len(feed_entry.geometries) == 1 assert isinstance(feed_entry.geometries[0], Point) feed_entry = entries[1] assert feed_entry.external_id == "2345" assert len(feed_entry.geometries) == 1 assert isinstance(feed_entry.geometries[0], Point) feed_entry = entries[2] assert feed_entry.external_id == "3456" assert len(feed_entry.geometries) == 2 assert isinstance(feed_entry.geometries[0], Point) assert isinstance(feed_entry.geometries[1], Polygon) feed_entry = entries[3] assert feed_entry.external_id == "4567" assert len(feed_entry.geometries) == 2 assert isinstance(feed_entry.geometries[0], Point) assert isinstance(feed_entry.geometries[1], BoundingBox) @pytest.mark.asyncio async def test_update_ok_feed_8(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_8.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 1 feed_entry = entries[0] assert feed_entry.title == "Title 1" assert feed_entry.external_id == "1234" assert feed_entry.category == "Category 1" assert feed_entry.coordinates == (-37.2345, 149.1234) assert round(abs(feed_entry.distance_to_home - 714.4), 1) == 0 @pytest.mark.asyncio async def test_update_ok_with_radius_filtering(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_2, "http://test.url/testpath", filter_radius=90.0, ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 4 assert round(abs(entries[0].distance_to_home - 82.0), 1) == 0 assert round(abs(entries[1].distance_to_home - 77.0), 1) == 0 assert round(abs(entries[2].distance_to_home - 84.6), 1) == 0 @pytest.mark.asyncio async def test_update_ok_with_radius_and_category_filtering(aresponses, event_loop): """Test updating feed is ok.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_2, "http://test.url/testpath", filter_radius=90.0, filter_categories=["Category 2"], ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 1 assert round(abs(entries[0].distance_to_home - 77.0), 1) == 0 aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200), ) feed = MockGeoRssFeed( websession, HOME_COORDINATES_2, "http://test.url/testpath", filter_radius=90.0, filter_categories=["Category 4"], ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 0 @pytest.mark.asyncio async def test_update_error(aresponses, event_loop): """Test updating feed results in error.""" aresponses.add("test.url", "/badpath", "get", aresponses.Response(status=404)) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed(websession, HOME_COORDINATES_1, "http://test.url/badpath") status, entries = await feed.update() assert status == UPDATE_ERROR assert feed.last_timestamp is None @pytest.mark.asyncio async def test_update_ok_then_error(aresponses, event_loop): """Test updating feed goes fine, followed by an error.""" aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) assert ( repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), " "url=http://test.url/testpath, radius=None, " "categories=None)>" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 5 assert feed.last_timestamp is not None aresponses.add("test.url", "/testpath", "get", aresponses.Response(status=404)) status, entries = await feed.update() assert status == UPDATE_ERROR assert feed.last_timestamp is None @pytest.mark.asyncio async def test_update_with_request_exception(aresponses, event_loop): """Test updating feed raises exception.""" aresponses.add("test.url", "/badpath", "get", aresponses.Response(status=404)) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed(websession, HOME_COORDINATES_1, "http://test.url/badpath") status, entries = await feed.update() assert status == UPDATE_ERROR assert entries is None assert feed.last_timestamp is None @pytest.mark.asyncio async def test_update_bom(aresponses, event_loop): """Test updating feed with BOM (byte order mark) is ok.""" xml = ( "\xef\xbb\xbf<?xml version='1.0' encoding='utf-8'?>" "<rss version='2.0'><channel><item><title>Title 1</title>" "</item></channel></rss>" ) aresponses.add( "test.url", "/testpath", "get", aresponses.Response(text=xml, charset="iso-8859-1", status=200), ) async with aiohttp.ClientSession(loop=event_loop) as websession: feed = MockGeoRssFeed( websession, HOME_COORDINATES_1, "http://test.url/testpath" ) assert ( repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), " "url=http://test.url/testpath, radius=None, " "categories=None)>" ) status, entries = await feed.update() assert status == UPDATE_OK assert entries is not None assert len(entries) == 0
35.185096
88
0.631687
1,778
14,637
5.033183
0.091114
0.094536
0.06537
0.043692
0.902
0.890714
0.859426
0.820986
0.792826
0.773494
0
0.048598
0.252101
14,637
415
89
35.26988
0.768886
0.001571
0
0.735905
0
0
0.106066
0.015818
0
0
0
0
0.37092
1
0
false
0
0.020772
0
0.020772
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
c3de2e51d37f967478d1decfdcd7d2dc044aed7b
22,007
py
Python
tests/test_rosimport/subtests/test_rosmsg_importlib.py
asmodehn/rosimport
c63e4769650b1cf19f23fbaa65a356ffae20a536
[ "MIT" ]
5
2017-11-11T18:26:28.000Z
2019-06-12T08:47:58.000Z
tests/test_rosimport/subtests/test_rosmsg_importlib.py
asmodehn/rosimport
c63e4769650b1cf19f23fbaa65a356ffae20a536
[ "MIT" ]
8
2017-06-30T08:28:46.000Z
2017-07-18T04:50:18.000Z
tests/test_rosimport/subtests/test_rosmsg_importlib.py
pyros-dev/rosimport
c63e4769650b1cf19f23fbaa65a356ffae20a536
[ "MIT" ]
null
null
null
from __future__ import absolute_import, division, print_function """ Testing dynamic import with importlib """ import os import sys import runpy import logging.config logging.config.dictConfig({ 'version': 1, 'disable_existing_loggers': False, 'formatters': { 'default': { 'format': '%(asctime)s %(levelname)s %(name)s %(message)s' }, }, 'handlers': { 'console': { 'class': 'logging.StreamHandler', } }, 'root': { 'handlers': ['console'], 'level': 'DEBUG', }, }) # Relying on basic unittest first, to be able to easily switch the test framework in case of import conflicts. import unittest # Ref : http://stackoverflow.com/questions/67631/how-to-import-a-module-given-the-full-path import importlib import site # Importing importer module from rosimport import RosImporter # importlib # https://pymotw.com/3/importlib/index.html # https://pymotw.com/2/importlib/index.html # # Note : we cannot assume anything about import implementation (different python version, different version of pytest) # => we need to test them all... # from ._utils import ( print_importers, BaseMsgSubTestCase, BaseSrvSubTestCase, ) class TestImportLibMsg(BaseMsgSubTestCase): rosdeps_path = os.path.join(os.path.dirname(os.path.dirname(os.path.dirname(__file__))), 'rosdeps') # importer instance rosimporter = RosImporter() @classmethod def setUpClass(cls): # This is used for message definitions, not for python code site.addsitedir(cls.rosdeps_path) cls.rosimporter.__enter__() @classmethod def tearDownClass(cls): cls.rosimporter.__exit__(None, None, None) @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") def test_importlib_import_absolute_msg(self): # Verify that files exists and are importable std_msgs = importlib.__import__('std_msgs.msg') std_msgs = std_msgs.msg self.assert_std_message_classes(std_msgs.Bool, std_msgs.Header) @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") def test_importlib_import_absolute_class_raises(self): with self.assertRaises(ImportError): importlib.__import__('std_msgs.msg.Bool') # BROKEN 3.4 ? @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") def test_importlib_import_relative_msg(self): # Verify that files exists and are importable subtest_msgs = importlib.__import__('msg', globals=globals(), level=1) test_msgs = importlib.__import__('test_rosimport.msg') test_msgs = test_msgs.msg self.assert_test_message_classes(subtest_msgs.SubTestMsg, subtest_msgs.SubTestMsgDeps, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg) # BROKEN 3.4 ? @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") def test_importlib_import_relative_class_raises(self): assert __package__ with self.assertRaises(ImportError): importlib.__import__('msg.SubTestMsg', globals=globals(), level=1) # UNTESTED (do we care ?) # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_absolute_msg(self): # # Verify that files exists and are dynamically importable # pkg_list = 'std_msgs.msg'.split('.')[:-1] # mod_list = 'std_msgs.msg'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # std_msgs = pkg # # self.assert_std_message_classes(std_msgs.Bool, std_msgs.Header) # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(std_msgs) # else: # pass # # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_absolute_class(self): # # Verify that files exists and are dynamically importable # pkg_list = 'std_msgs.msg.Bool'.split('.')[:-1] # mod_list = 'std_msgs.msg.Bool'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # Bool = pkg # # self.assert_std_message_classes(Bool, Header) # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(Bool) # else: # pass # # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_relative_msg(self): # # Verify that files exists and are dynamically importable # pkg_list = '.msg'.split('.')[:-1] # mod_list = '.msg'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # test_msgs = pkg # # self.assertTrue(test_msgs is not None) # self.assertTrue(test_msgs.TestMsg is not None) # self.assertTrue(callable(test_msgs.TestMsg)) # self.assertTrue(test_msgs.TestMsg._type == 'rosimport/TestMsg') # careful between ros package name and python package name # # # use it ! # self.assertTrue(test_msgs.TestMsg(test_bool=True, test_string='Test').test_bool) # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(test_msgs) # else: # pass # # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_relative_class(self): # # Verify that files exists and are dynamically importable # pkg_list = '.msg.TestMsg'.split('.')[:-1] # mod_list = '.msg.TestMsg'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # TestMsg = pkg # # self.assert_test_message_classes(TestMsg, TestMsgDeps, TestRosMsgDeps, TestRosMsg) # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(TestMsg) # else: # pass # TODO : dynamic using module_spec (python 3.5) @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_absolute_msg(self): # Verify that files exists and are dynamically importable std_msgs = importlib.import_module('std_msgs.msg') self.assert_std_message_classes(std_msgs.Bool, std_msgs.Header) if hasattr(importlib, 'reload'): # recent version of importlib # attempting to reload importlib.reload(std_msgs) else: pass assert std_msgs is not None @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_absolute_class_raises(self): with self.assertRaises(ImportError): importlib.import_module('std_msgs.msg.Bool') @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_relative_msg(self): assert __package__ # Verify that files exists and are dynamically importable subtest_msgs = importlib.import_module('.msg', package=__package__) test_msgs = importlib.import_module('test_rosimport.msg', package=__package__) self.assert_test_message_classes(subtest_msgs.SubTestMsg, subtest_msgs.SubTestMsgDeps, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg) if hasattr(importlib, 'reload'): # recent version of importlib # attempting to reload importlib.reload(test_msgs) else: pass assert test_msgs is not None @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_relative_msg_from_absolute(self): assert __package__ # Verify that files exists and are dynamically importable subtest_msgs = importlib.import_module('test_rosimport.subtests.msg') test_msgs = importlib.import_module('test_rosimport.msg') self.assert_test_message_classes(subtest_msgs.SubTestMsg, subtest_msgs.SubTestMsgDeps, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg) if hasattr(importlib, 'reload'): # recent version of importlib # attempting to reload importlib.reload(test_msgs) else: pass assert test_msgs is not None @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_relative_class_raises(self): assert __package__ with self.assertRaises(ImportError): importlib.import_module('.msg.TestMsg', package=__package__) # TODO # def test_double_import_uses_cache(self): # # print_importers() # # Verify that files exists and are importable # import std_msgs.msg as std_msgs # # self.assertTrue(std_msgs.Bool is not None) # self.assertTrue(callable(std_msgs.Bool)) # self.assertTrue(std_msgs.Bool._type == 'std_msgs/Bool') # # import std_msgs.msg as std_msgs2 # # self.assertTrue(std_msgs == std_msgs2) class TestImportLibSrv(BaseSrvSubTestCase): ros_comm_msgs_path = os.path.join(os.path.dirname(os.path.dirname(os.path.dirname(__file__))), 'rosdeps', 'ros_comm_msgs') # For dependencies rosdeps_path = os.path.join(os.path.dirname(os.path.dirname(os.path.dirname(__file__))), 'rosdeps') rosimporter = RosImporter() @classmethod def setUpClass(cls): # This is used for message definitions, not for python code site.addsitedir(cls.rosdeps_path) site.addsitedir(cls.ros_comm_msgs_path) cls.rosimporter.__enter__() @classmethod def tearDownClass(cls): cls.rosimporter.__exit__(None, None, None) @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") def test_importlib_import_absolute_srv(self): # Verify that files exists and are importable # __import__ checks sys.modules by itself # but the test is not reflecting anything if we use the already loaded module. if sys.modules.get('std_srvs.srv'): #TODO : EVERYWHERE ! raise unittest.SkipTest("module previously loaded".format('std_srvs.srv')) else: std_srvs = importlib.__import__('std_srvs.srv') std_srvs = std_srvs.srv self.assert_std_service_classes(std_srvs.SetBool, std_srvs.SetBoolRequest, std_srvs.SetBoolResponse) @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") def test_importlib_import_absolute_class_raises(self): with self.assertRaises(ImportError): importlib.__import__('std_srvs.srv.SetBool') # BROKEN 3.4 ? @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") def test_importlib_import_relative_srv(self): # Verify that files exists and are importable subtest_srvs = importlib.__import__('srv', globals=globals(), level=1) test_msgs = importlib.__import__('test_rosimport.msg') test_msgs = test_msgs.msg self.assert_test_service_classes(subtest_srvs.SubTestSrv, subtest_srvs.SubTestSrvRequest, subtest_srvs.SubTestSrvResponse, subtest_srvs.SubTestSrvDeps, subtest_srvs.SubTestSrvDepsRequest, subtest_srvs.SubTestSrvDepsResponse, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg) # UNTESTED : do we care ? # @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__") # def test_importlib_import_relative_class_raises(self): # assert __package__ # with self.assertRaises(ImportError): # importlib.__import__('srv.SetBool', globals=globals(), level=1) # # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_absolute_srv(self): # # Verify that files exists and are dynamically importable # pkg_list = 'std_srvs.srv'.split('.')[:-1] # mod_list = 'std_srvs.srv'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # std_srvs = pkg # # self.assert_std_service_classes(std_srvs.SetBool, std_srvs.SetBoolRequest, std_srvs.SetBoolResponse) # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(std_srvs) # else: # pass # # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_absolute_class(self): # # Verify that files exists and are dynamically importable # pkg_list = 'std_srvs.srv.SetBool'.split('.')[:-1] # mod_list = 'std_srvs.srv.SetBool'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # SetBool = pkg # # self.assert_test_service_classes(SetBool, SetBoolRequest, SetBoolResponse) # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(SetBool) # else: # pass # # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_relative_srv(self): # # Verify that files exists and are dynamically importable # pkg_list = '.srv'.split('.')[:-1] # mod_list = '.srv'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # test_srvs = pkg # # self.assert_test_service_classes() # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(test_msgs) # else: # pass # # @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'), # reason="importlib does not have attribute find_loader or load_module") # def test_importlib_loadmodule_relative_class(self): # # Verify that files exists and are dynamically importable # pkg_list = '.srv.TestSrv'.split('.')[:-1] # mod_list = '.srv.TestSrv'.split('.')[1:] # pkg = None # for pkg_name, mod_name in zip(pkg_list, mod_list): # pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None) # pkg = pkg_loader.load_module(mod_name) # # TestSrv = pkg # # self.assert_test_service_classes() # # # TODO : implement some differences and check we get them... # if hasattr(importlib, 'reload'): # recent version of importlib # # attempting to reload # importlib.reload(TestSrv) # else: # pass # TODO : dynamic using module_spec (python 3.5) @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_absolute_srv(self): # Verify that files exists and are dynamically importable std_srvs = importlib.import_module('std_srvs.srv') self.assert_std_service_classes(std_srvs.SetBool, std_srvs.SetBoolRequest, std_srvs.SetBoolResponse) if hasattr(importlib, 'reload'): # recent version of importlib # attempting to reload importlib.reload(std_srvs) else: pass assert std_srvs is not None @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_absolute_class_raises(self): with self.assertRaises(ImportError): importlib.import_module('std_srvs.srv.SetBool') @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_relative_srv(self): assert __package__ # Verify that files exists and are dynamically importable subtest_srvs = importlib.import_module('.srv', package=__package__) test_msgs = importlib.import_module('test_rosimport.msg', package=__package__) self.assert_test_service_classes(subtest_srvs.SubTestSrv, subtest_srvs.SubTestSrvRequest, subtest_srvs.SubTestSrvResponse, subtest_srvs.SubTestSrvDeps, subtest_srvs.SubTestSrvDepsRequest, subtest_srvs.SubTestSrvDepsResponse, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg) if hasattr(importlib, 'reload'): # recent version of importlib # attempting to reload importlib.reload(subtest_srvs) else: pass assert subtest_srvs is not None @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_relative_srv_from_absolute(self): assert __package__ # Verify that files exists and are dynamically importable subtest_srvs = importlib.import_module('test_rosimport.subtests.srv') test_msgs = importlib.import_module('test_rosimport.msg') self.assert_test_service_classes(subtest_srvs.SubTestSrv, subtest_srvs.SubTestSrvRequest, subtest_srvs.SubTestSrvResponse, subtest_srvs.SubTestSrvDeps, subtest_srvs.SubTestSrvDepsRequest, subtest_srvs.SubTestSrvDepsResponse, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg) if hasattr(importlib, 'reload'): # recent version of importlib # attempting to reload importlib.reload(subtest_srvs) else: pass assert subtest_srvs is not None @unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module") def test_importlib_importmodule_relative_class_raises(self): assert __package__ with self.assertRaises(ImportError): importlib.import_module('.srv.TestSrv', package=__package__) # TODO # def test_double_import_uses_cache(self): # # print_importers() # # Verify that files exists and are importable # import std_msgs.msg as std_msgs # # self.assertTrue(std_msgs.Bool is not None) # self.assertTrue(callable(std_msgs.Bool)) # self.assertTrue(std_msgs.Bool._type == 'std_msgs/Bool') # # import std_msgs.msg as std_msgs2 # # self.assertTrue(std_msgs == std_msgs2) if __name__ == '__main__': import pytest pytest.main(['-s', '-x', __file__, '--boxed'])
42.566731
142
0.662153
2,550
22,007
5.42
0.090196
0.056436
0.04674
0.045149
0.880399
0.85645
0.842486
0.834672
0.834238
0.818175
0
0.002519
0.242287
22,007
516
143
42.649225
0.826327
0.465715
0
0.594595
0
0
0.141994
0.008672
0
0
0
0.001938
0.162162
1
0.113514
false
0.032432
0.540541
0
0.691892
0.010811
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
1
0
1
0
0
8
6181f226d9f2151e127452c2a72c099797ae08ca
78,436
py
Python
graphs.py
UmbertoGostoli/Simulation-for-Scottish-Gov
4c2c00d455f41ec6c1ff09071193f5729e92a61c
[ "MIT" ]
null
null
null
graphs.py
UmbertoGostoli/Simulation-for-Scottish-Gov
4c2c00d455f41ec6c1ff09071193f5729e92a61c
[ "MIT" ]
null
null
null
graphs.py
UmbertoGostoli/Simulation-for-Scottish-Gov
4c2c00d455f41ec6c1ff09071193f5729e92a61c
[ "MIT" ]
null
null
null
# -*- coding: utf-8 -*- """ Created on Wed Feb 06 15:45:43 2019 @author: ug4d """ import numpy as np import matplotlib.pyplot as plt from matplotlib.ticker import MaxNLocator from matplotlib.backends.backend_pdf import PdfPages import os from collections import OrderedDict import pandas as pd import sys def doGraphs(graphsParams, metaParams): folder = graphsParams[0] numRepeats = graphsParams[2] numScenarios = graphsParams[3] numPolicies = graphsParams[4] simFolder = 'Simulations_Folder/' + folder multipleRepeatsDF = [] for repeatID in range(numRepeats): repFolder = simFolder + '/Rep_' + str(repeatID) multipleScenariosDF = [] for scenarioID in range(numScenarios): scenarioFolder = repFolder + '/Scenario_' + str(scenarioID) multiplePoliciesDF = [] for policyID in range(numPolicies): policyFolder = scenarioFolder + '/Policy_' + str(policyID) outputsDF = pd.read_csv(policyFolder + '/Outputs.csv', sep=',', header=0) singlePolicyGraphs(outputsDF, policyFolder, metaParams) multiplePoliciesDF.append(outputsDF) if numPolicies > 1: multiplePoliciesGraphs(multiplePoliciesDF, scenarioFolder, metaParams, numPolicies) multipleScenariosDF.append(multiplePoliciesDF) if numScenarios > 1: multipleScenariosGraphs(multipleScenariosDF, repFolder, metaParams, numPolicies, numScenarios) multipleRepeatsDF.append(multipleScenariosDF) if numRepeats > 1: multipleRepeatsGraphs(multipleRepeatsDF, simFolder, metaParams, numPolicies, numScenarios, numRepeats) def singlePolicyGraphs(output, policyFolder, p): folder = policyFolder + '/Graphs' if not os.path.exists(folder): os.makedirs(folder) policyYears = int((p['endYear']-p['policyStartYear']) + 1) fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['currentPop'], color="red", label = 'Total population') p2, = ax.plot(output['year'], output['taxPayers'], color="blue", label = 'Taxpayers') ax.set_ylabel('Number of people') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.ticklabel_format(style='sci', axis='y') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'popGrowth.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['grossDomesticProduct'], color="red") ax.set_ylabel('Pounds') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'grossDomesticProduct.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['averageHouseholdSize'], color="red") ax.set_ylabel('Average Household Size') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'avgHouseholdSize.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['marriagePropNow'], color="red") ax.set_ylabel('Married adult women (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareMarriedWomen.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['shareSingleParents'], color="red") ax.set_ylabel('Single Parents (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareSingleParents.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['shareFemaleSingleParent'], color="red") ax.set_ylabel('Female Single Parents (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareFemaleSingleParents.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['totalHospitalizationCost'], color="red") ax.set_ylabel('Hospitalization Cost') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'hospitalizationCost.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['publicSocialCare'], color="red") ax.set_ylabel('Public Social Care (hours per week)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'publicSocialCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['publicCareToGDP'], color="red") ax.set_ylabel('Share') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'publicCareToGDP.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() p1, = ax.plot(output['year'], output['totalInformalSocialCare'], linewidth = 3, label = 'Informal Care') p2, = ax.plot(output['year'], output['totalFormalSocialCare'], linewidth = 3, label = 'Formal Care') p3, = ax.plot(output['year'], output['totalUnmetSocialCareNeed'], linewidth = 3, label = 'Unmet Care') p4, = ax.plot(output['year'], output['publicSocialCare'], linewidth = 3, label = 'Public Social Care') ax.set_xlim(left = p['statsCollectFrom']) ax.set_ylabel('Hours per week') # ax.set_xlabel('Year') handles, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper left') # ax.set_title('Total Delivered and Unmet Care') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) plt.xlim(p['statsCollectFrom'], p['endYear']) # plt.ylim(0, 25) plt.xticks(range(int(p['statsCollectFrom']), int(p['endYear']+1), 20)) fig.tight_layout() path = os.path.join(folder, 'Delivered_UnmetSocialCareChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() n_groups = p['numberClasses'] meanInformalCareReceived_1 = np.mean(output['q1_informalSocialCare'][-policyYears:]) meanFormalCareReceived_1 = np.mean(output['q1_formalSocialCare'][-policyYears:]) meanUnmetNeed_1 = np.mean(output['q1_unmetSocialCareNeed'][-policyYears:]) meanInformalCareReceived_2 = np.mean(output['q2_informalSocialCare'][-policyYears:]) meanFormalCareReceived_2 = np.mean(output['q2_formalSocialCare'][-policyYears:]) meanUnmetNeed_2 = np.mean(output['q2_unmetSocialCareNeed'][-policyYears:]) meanInformalCareReceived_3 = np.mean(output['q3_informalSocialCare'][-policyYears:]) meanFormalCareReceived_3 = np.mean(output['q3_formalSocialCare'][-policyYears:]) meanUnmetNeed_3 = np.mean(output['q3_unmetSocialCareNeed'][-policyYears:]) meanInformalCareReceived_4 = np.mean(output['q4_informalSocialCare'][-policyYears:]) meanFormalCareReceived_4 = np.mean(output['q4_formalSocialCare'][-policyYears:]) meanUnmetNeed_4 = np.mean(output['q4_unmetSocialCareNeed'][-policyYears:]) meanInformalCareReceived_5 = np.mean(output['q5_informalSocialCare'][-policyYears:]) meanFormalCareReceived_5 = np.mean(output['q5_formalSocialCare'][-policyYears:]) meanUnmetNeed_5 = np.mean(output['q5_unmetSocialCareNeed'][-policyYears:]) informalCare = (meanInformalCareReceived_1, meanInformalCareReceived_2, meanInformalCareReceived_3, meanInformalCareReceived_4, meanInformalCareReceived_5) formalCare = (meanFormalCareReceived_1, meanFormalCareReceived_2, meanFormalCareReceived_3, meanFormalCareReceived_4, meanFormalCareReceived_5) sumInformalFormalCare = [x + y for x, y in zip(informalCare, formalCare)] unmetNeeds = (meanUnmetNeed_1, meanUnmetNeed_2, meanUnmetNeed_3, meanUnmetNeed_4, meanUnmetNeed_5) ind = np.arange(n_groups) # the x locations for the groups width = 0.5 # the width of the bars: can also be len(x) sequence fig, ax = plt.subplots() p1 = ax.bar(ind, informalCare, width, align='center', color = 'g', label = 'Informal Care') p2 = ax.bar(ind, formalCare, width, bottom = informalCare, align='center', color = 'y', label = 'Formal Care') p3 = ax.bar(ind, unmetNeeds, width, bottom = sumInformalFormalCare, align='center', color = 'r', label = 'Unmet Care Needs') ax.set_ylabel('Hours per week') ax.set_xticks(ind) plt.xticks(ind, ('I', 'II', 'III', 'IV', 'V'), fontsize = 12) handles, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper right') ax.yaxis.label.set_fontsize(12) # ax.set_title('Informal, Formal and Unmet Social Care Need per Recipient') fig.tight_layout() path = os.path.join(folder, 'SocialCarePerRecipientByClassStackedBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['costPublicSocialCare'], color="red") ax.set_ylabel('Pounds per week') # ax.set_title('Cost of Public Social Care') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'costPublicSocialCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['sharePublicSocialCare'], color="red") ax.set_ylabel('Public Social Care (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'sharePublicSocialCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['publicChildCare'], color="red") ax.set_ylabel('Public Child Care (hours per week)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'publicChildCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['publicChildCare'], color="red") p2, = ax.plot(output['year'], output['publicSocialCare'], color="green") ax.set_ylabel('Hours per week') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'publicSocialAndChildCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['sharePublicChildCare'], color="red") ax.set_ylabel('Public Child Care (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'sharePublicChildCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['employmentRate'], color="red") ax.set_ylabel('Employment Rate') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'employmentRate.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['shareWorkingHours'], color="red") ax.set_ylabel('Working time (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareWorkingHours.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() share_1 = output.loc[output['year'] == p['outputYear'], 'classShare_1'].values[0] share_2 = output.loc[output['year'] == p['outputYear'], 'classShare_2'].values[0] share_3 = output.loc[output['year'] == p['outputYear'], 'classShare_3'].values[0] share_4 = output.loc[output['year'] == p['outputYear'], 'classShare_4'].values[0] share_5 = output.loc[output['year'] == p['outputYear'], 'classShare_5'].values[0] fig, ax = plt.subplots() objects = ('SES I', 'SES II', 'SES III', 'SES IV', 'SES V') y_pos = np.arange(len(objects)) shares = [share_1, share_2, share_3, share_4, share_5] ax.bar(y_pos, shares, align='center', alpha=0.5) ax.set_xticks(np.arange(len(objects))) ax.set_xticklabels(objects) ax.xaxis.set_ticks_position('none') ax.set_ylabel('SES Shares') # ax.set_title('Population SES Shares') fig.tight_layout() path = os.path.join(folder, 'sharesClasses.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['shareCareGivers'], color="red") ax.set_ylabel('Care Givers (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareCareGivers.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['ratioFemaleMaleCarers'], color="red") ax.set_ylabel('Ratio female/male carers') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'ratioFemaleMaleCarers.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['shareMaleCarers'], label = 'Males') p2, = ax.plot(output['year'], output['shareFemaleCarers'], label = 'Females') # ax.set_title('Care Givers by Gender (share)') ax.set_ylabel('Shares of Population') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareCareGiversByGender.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['ratioWage'], color="red") ax.set_ylabel('Ratio female/male wage') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'ratioFemaleMaleWage.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['ratioIncome'], color="red") ax.set_ylabel('Ratio female/male Income') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'ratioFemaleMaleIncome.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['shareFamilyCarer'], color="red") ax.set_ylabel('Carer within family (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareFamilyCarer.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['averageHoursOfCare'], color="red") ax.set_ylabel('Hours of care (average)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'averageHoursOfCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['classShare_1'], color="red") ax.set_ylabel('Share of Population') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'classShare_1.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['totalSocialCareNeed'], color="red") ax.set_ylabel('Social care needs (hours/week)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'totalSocialCareNeed.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) averageCareNeed = [] for i in range(int(p['startYear']), int(p['endYear'])+1): averageCareNeed.append(output.loc[output['year'] == i, 'totalSocialCareNeed'].values[0]/output.loc[output['year'] == i, 'currentPop'].values[0]) p1, = ax.plot(output['year'], averageCareNeed, color="red") ax.set_ylabel('Hours of social care needs') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'averageSocialCareNeed.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['totalInformalSocialCare'], label = 'Informal Care') p2, = ax.plot(output['year'], output['totalFormalSocialCare'], label = 'Formal Care') # ax.set_title('Informal and Formal Social Care') ax.set_ylabel('Hours per week') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'hoursInformalFormalSocialCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['totalUnmetSocialCareNeed'], color="red") # ax.set_title('Informal and Formal Social Care') ax.set_ylabel('Hours per week') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'hoursUnmetSocialCareNeed.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['share_InformalSocialCare'], color="red") ax.set_ylabel('Informal social care (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareInformalSocialCare.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['share_UnmetSocialCareNeed'], color="red") ax.set_ylabel('Unmet Social Care Need (share)') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareUnmetSocialCareNeed.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['q1_socialCareNeed'], label = 'Q1') p2, = ax.plot(output['year'], output['q2_socialCareNeed'], label = 'Q2') p3, = ax.plot(output['year'], output['q3_socialCareNeed'], label = 'Q3') p4, = ax.plot(output['year'], output['q4_socialCareNeed'], label = 'Q4') p5, = ax.plot(output['year'], output['q5_socialCareNeed'], label = 'Q5') # ax.set_title('Social Care Needs by Income Quintiles') handles, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.set_ylabel('Hours per week') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'socialCareNeedsByQuintiles.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['q1_unmetSocialCareNeed'], label = 'Q1') p2, = ax.plot(output['year'], output['q2_unmetSocialCareNeed'], label = 'Q2') p3, = ax.plot(output['year'], output['q3_unmetSocialCareNeed'], label = 'Q3') p4, = ax.plot(output['year'], output['q4_unmetSocialCareNeed'], label = 'Q4') p5, = ax.plot(output['year'], output['q5_unmetSocialCareNeed'], label = 'Q5') # ax.set_title('Social Care Needs by Income Quintiles') handles, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper left') ax.set_ylabel('Hours per week') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'unmetSocialCareNeedsByQuintiles.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['q1_outOfWorkSocialCare'], label = 'Q1') p2, = ax.plot(output['year'], output['q2_outOfWorkSocialCare'], label = 'Q2') p3, = ax.plot(output['year'], output['q3_outOfWorkSocialCare'], label = 'Q3') p4, = ax.plot(output['year'], output['q4_outOfWorkSocialCare'], label = 'Q4') p5, = ax.plot(output['year'], output['q5_outOfWorkSocialCare'], label = 'Q5') # ax.set_title('Social Care Needs by Income Quintiles') handles, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper left') ax.set_ylabel('Hours per week') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'outOfWorkCareByQuintiles.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['q1_formalSocialCare'], label = 'Q1') p2, = ax.plot(output['year'], output['q2_formalSocialCare'], label = 'Q2') p3, = ax.plot(output['year'], output['q3_formalSocialCare'], label = 'Q3') p4, = ax.plot(output['year'], output['q4_formalSocialCare'], label = 'Q4') p5, = ax.plot(output['year'], output['q5_formalSocialCare'], label = 'Q5') # ax.set_title('Social Care Needs by Income Quintiles') handles, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper left') ax.set_ylabel('Hours per week') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'formalCareByQuintiles.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) p1, = ax.plot(output['year'], output['totalCostOWSC'], color="red") ax.set_ylabel('Pounds per week') # ax.set_title('Cost of out-of-work social care') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'outOfWorkSocialCareCost.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() def multiplePoliciesGraphs(output, scenarioFolder, p, numPolicies): folder = scenarioFolder + '/Graphs' if not os.path.exists(folder): os.makedirs(folder) # Add graphs across policies (within the same run/scenario) ############################# Population ####################################### fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['currentPop'], label = policyLabel)) # ax.set_title('Populations') ax.set_ylabel('Number of people') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'popGrowth_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() ########################### Share of Umnet Care Needs ################################# fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['share_UnmetSocialCareNeed'], label = policyLabel)) # ax.set_title('Share of Unmet Social Care Needs') ax.set_ylabel('Share of Unmet Social Care') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper left') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareUnmetSocialCareNeeds_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['totalUnmetSocialCareNeed'], label = policyLabel)) # ax.set_title('Unmet Social Care Needs') ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper left') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'totalUnmetSocialCareNeeds_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['totalHospitalizationCost'], label = policyLabel)) # ax.set_title('Hospitalization Cost') ax.set_ylabel('Punds per year') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'hospitalizationCost_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['totalOWSC'], label = policyLabel)) # ax.set_title('Out-of-Work Care') ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower left') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'outOfWorkCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['publicSocialCare'], label = policyLabel)) # ax.set_title('Amount of Public Social Care') ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'publicSocialCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['totalFormalSocialCare'], label = policyLabel)) # ax.set_title('Amount of Formal Social Care') ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'formalSocialCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['shareInformalChildCare'], label = policyLabel)) # ax.set_title('Share Informal Child Care') ax.set_ylabel('Share of child care') plt.ylim(0.6, 1.0) handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper left') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareInformalChildCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['share_InformalSocialCare'], label = policyLabel)) # ax.set_title('Share Informal Child Care') ax.set_ylabel('Share of social care') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareInformalSocialCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['totalInformalChildCare'], label = policyLabel)) # ax.set_title('Share Informal Child Care') ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'informalChildCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['totalInformalSocialCare'], label = policyLabel)) # ax.set_title('Share Informal Child Care') ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'upper right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'informalSocialCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['formalChildCare'], label = policyLabel)) # ax.set_title('Formal Child Care') ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower left') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'formalChildCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['sharePublicChildCare'], label = policyLabel)) # ax.set_title('Share of Public Child Care') ax.set_ylabel('Share of child care') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'sharePublicChildCare_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['shareWorkingHours'], label = policyLabel)) # ax.set_title('Share of working time') ax.set_ylabel('Share of total working hours') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareWorkingTime_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) graph.append(ax.plot(output[i]['year'], output[i]['employmentRate'], label = policyLabel)) # ax.set_title('Employment Rate') ax.set_ylabel('Employment Rate') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'employmentRate_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numPolicies): policyLabel = 'Benchmark' if i != 0: policyLabel = 'Policy ' + str(i) c1 = output[i]['costTaxFreeChildCare'] c2 = output[i]['costPublicChildCare'] c3 = output[i]['costPublicSocialCare'] c4 = output[i]['costTaxFreeSocialCare'] policyCost = [sum(x) for x in zip(c1, c2, c3, c4)] graph.append(ax.plot(output[i]['year'], policyCost, label = policyLabel)) # ax.set_title('Policy Cost') ax.set_ylabel('Pounds per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'directPolicyCost_axPol.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) outOfWorkCare = [] for i in range(numPolicies): outOfWorkCare.append(np.sum(output[i]['totalHospitalizationCost'][-policyYears:])) ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5) plt.xticks(y_pos, objects) # plt.ylim(75000000, 85000000) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Pounds') # ax.set_title('Formal Child Care (2020-2040)') fig.tight_layout() path = os.path.join(folder, 'hospitalizationCostBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) outOfWorkCare = [] for i in range(numPolicies): outOfWorkCare.append(np.sum(output[i]['totalSocialCareNeed'][-policyYears:])) ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5) plt.xticks(y_pos, objects) # plt.ylim(1200000, 1400000) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Hours per week') # ax.set_title('Formal Child Care (2020-2040)') fig.tight_layout() path = os.path.join(folder, 'totalSocialCareNeedBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) outOfWorkCare = [] for i in range(numPolicies): outOfWorkCare.append(np.sum(output[i]['totalInformalSocialCare'][-policyYears:])) ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5) plt.xticks(y_pos, objects) # plt.ylim(350000, 450000) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Hours per week') # ax.set_title('Formal Child Care (2020-2040)') fig.tight_layout() path = os.path.join(folder, 'totalInformalCareNeedBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) outOfWorkCare = [] for i in range(numPolicies): outOfWorkCare.append(np.sum(output[i]['totalFormalSocialCare'][-policyYears:])) ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5) plt.xticks(y_pos, objects) # plt.ylim(150000, 225000) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Hours per week') # ax.set_title('Formal Child Care (2020-2040)') fig.tight_layout() path = os.path.join(folder, 'totalFormalCareNeedBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) outOfWorkCare = [] for i in range(numPolicies): outOfWorkCare.append(np.sum(output[i]['formalChildCare'][-policyYears:])) ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5) plt.xticks(y_pos, objects) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Hours per week') # ax.set_title('Formal Child Care (2020-2040)') fig.tight_layout() path = os.path.join(folder, 'formal Child CareBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) outOfWorkCare = [] for i in range(numPolicies): outOfWorkCare.append(np.sum(output[i]['totalOWSC'][-policyYears:])) ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5) plt.xticks(y_pos, objects) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Hours per week') # ax.set_title('Out-of-Work Social Care (2020-2040)') fig.tight_layout() path = os.path.join(folder, 'outOfWorkSocialCareBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) shareUnmetCareDemand = [] for i in range(numPolicies): shareUnmetCareDemand.append(np.sum(output[i]['totalUnmetSocialCareNeed'][-policyYears:])) ax.bar(y_pos, shareUnmetCareDemand, align='center', alpha=0.5) # plt.ylim(500000, 650000) plt.xticks(y_pos, objects) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Hours of Unmet Care') # ax.set_title('Total Unmet Social Care Need') fig.tight_layout() path = os.path.join(folder, 'TotalUnmetCareNeedBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) shareUnmetCareDemand = [] for i in range(numPolicies): shareUnmetCareDemand.append(np.sum(output[i]['publicSocialCare'][-policyYears:])) ax.bar(y_pos, shareUnmetCareDemand, align='center', alpha=0.5) plt.xticks(y_pos, objects) # plt.ylim(80000, 170000) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Hours of Social Care') # ax.set_title('Total Unmet Social Care Need') fig.tight_layout() path = os.path.join(folder, 'publicSocialCareBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() policyYears = int(p['endYear']-p['policyStartYear']) + 1 # Fig. 9: Bar charts of total unmet care need by Policy fig, ax = plt.subplots() objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4') y_pos = np.arange(len(objects)) shareUnmetCareDemand = [] for i in range(numPolicies): c1 = output[i]['costTaxFreeChildCare'] c2 = output[i]['costPublicChildCare'] c3 = output[i]['costPublicSocialCare'] c4 = output[i]['costTaxFreeSocialCare'] policyCost = [sum(x) for x in zip(c1, c2, c3, c4)] shareUnmetCareDemand.append(np.sum(policyCost[-policyYears:])) ax.bar(y_pos, shareUnmetCareDemand, align='center', alpha=0.5) plt.xticks(y_pos, objects) ax.xaxis.set_ticks_position('none') ax.set_ylabel('Pounds per week') # ax.set_title('Total Policy Costs (2020-2040)') fig.tight_layout() path = os.path.join(folder, 'TotalPolicyCostBarChart.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() def multipleScenariosGraphs(output, repFolder, p, numPolicies, numScenarios): folder = repFolder + '/Graphs' if not os.path.exists(folder): os.makedirs(folder) # Add graphs across scenarios (for the same policies) for j in range(numPolicies): fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numScenarios): graph.append(ax.plot(output[i][j]['year'], output[i][j]['currentPop'], label = 'Scenario ' + str(i+1))) # p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1') ax.set_title('Populations - Policy ' + str(j)) ax.set_ylabel('Number of people') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'popGrowth_axScen_P' + str(j) + '.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() for j in range(numPolicies): fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numScenarios): graph.append(ax.plot(output[i][j]['year'], output[i][j]['share_UnmetSocialCareNeed'], label = 'Scenario ' + str(i+1))) # p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1') ax.set_title('Unmet Care Needs - Policy ' + str(j)) ax.set_ylabel('Unmet Care Needs (share)') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'shareUnmetSocialCareNeeds_axScen_P' + str(j) + '.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() for j in range(numPolicies): fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numScenarios): graph.append(ax.plot(output[i][j]['year'], output[i][j]['totalHospitalizationCost'], label = 'Scenario ' + str(i+1))) # p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1') ax.set_title('Hospitalization Cost - Policy ' + str(j)) ax.set_ylabel('Punds per year') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'hospitalizationCost_axScen_P' + str(j) + '.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() for j in range(numPolicies): fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numScenarios): graph.append(ax.plot(output[i][j]['year'], output[i][j]['publicCare'], label = 'Scenario ' + str(i+1))) # p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1') ax.set_title('Amount of Public Care - Policy ' + str(j)) ax.set_ylabel('Hours per week') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'publicCare_axScen_P' + str(j) + '.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() for j in range(numPolicies): fig, ax = plt.subplots() # Argument: figsize=(5, 3) graph = [] for i in range(numScenarios): graph.append(ax.plot(output[i][j]['year'], output[i][j]['employmentRate'], label = 'Scenario ' + str(i+1))) # p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1') ax.set_title('Employment Rate - Policy ' + str(j)) ax.set_ylabel('Employment Rate') handels, labels = ax.get_legend_handles_labels() ax.legend(loc = 'lower right') ax.xaxis.set_major_locator(MaxNLocator(integer=True)) ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) fig.tight_layout() path = os.path.join(folder, 'employmentRate_axScen_P' + str(j) + '.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() def multipleRepeatsGraphs(output, simFolder, p, numPolicies, numScenarios, numRepeats): # print 'doing mrg...' folder = simFolder + '/Graphs' if not os.path.exists(folder): os.makedirs(folder) # Add graphs across runs (for the same scenario/policy combinations) # For each policy scenario, take the average of year 2010-2020 for each run, and do a bar chart with error bars for each outcome of interest # Policy comparison: make charts by outcomes with bars representing the different policies. policies = ['Benchmark', 'Policy 1', 'Policy 2', 'Policy 3', 'Policy 4'] for i in range(numScenarios): scenarioFolder = folder + '/Scenario ' + str(i+1) if not os.path.exists(scenarioFolder): os.makedirs(scenarioFolder) # Share of Unmet Social Care: mean and sd across the n repeats for the 5 policies. meansOutput = [] sdOutput = [] for j in range(numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'share_UnmetSocialCareNeed'].values[0]) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(policies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Share of Unmet Social Care') ax.set_xticks(x_pos) ax.set_xticklabels(policies) ax.set_title('Shares of Unmet Social Care (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'shareUnmetSocialCareNeed.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # Hours of Unmet Social Care: mean and sd across the n repeats for the 5 policies. meansOutput = [] sdOutput = [] for j in range(numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0]) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(policies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Hours per week') ax.set_xticks(x_pos) ax.set_xticklabels(policies) ax.set_title('Unmet Social Care Needs (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'hoursUnmetSocialCareNeed.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # Direct policy cost (total) meansOutput = [] sdOutput = [] for j in range(numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] policyWindow.append(tfc+pc+ps+tfs) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(policies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per week') ax.set_xticks(x_pos) ax.set_xticklabels(policies) ax.set_title('Direct Policy Cost (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'directPolicyCost.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # ICERD newPolicies = policies[1:] meansOutput = [] sdOutput = [] for j in range(1, numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] policyCost = tfc+pc+ps+tfs tfc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] benchmarkCost = tfc+pc+ps+tfs deltaCost = policyCost-benchmarkCost hourUnmetCarePolicy = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0] hourUnmetCareBenchmark = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0] deltaCare = hourUnmetCareBenchmark-hourUnmetCarePolicy policyWindow.append(deltaCost/deltaCare) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(newPolicies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per hour') ax.set_xticks(x_pos) ax.set_xticklabels(newPolicies) ax.set_title('Direct Cost ICER (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'directICER.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # Hospitalization cost meansOutput = [] sdOutput = [] for j in range(numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(policies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per week') ax.set_xticks(x_pos) ax.set_xticklabels(policies) ax.set_title('Hospitalization Costs (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'hospitalizationCosts.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # Total public budget costs meansOutput = [] sdOutput = [] for j in range(numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0 policyWindow.append(tfc+pc+ps+tfs+hc) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(policies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per week') ax.set_xticks(x_pos) ax.set_xticklabels(policies) ax.set_title('Public Budget Policy Cost (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'dpublicBudgetPolicyCost.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # ICERB newPolicies = policies[1:] meansOutput = [] sdOutput = [] for j in range(1, numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0 policyCost = tfc+pc+ps+tfs+hc tfc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] hc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0 benchmarkCost = tfc+pc+ps+tfs+hc deltaCost = policyCost-benchmarkCost hourUnmetCarePolicy = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0] hourUnmetCareBenchmark = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0] deltaCare = hourUnmetCareBenchmark-hourUnmetCarePolicy policyWindow.append(deltaCost/deltaCare) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(newPolicies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per hour') ax.set_xticks(x_pos) ax.set_xticklabels(newPolicies) ax.set_title('Budget Cost ICER (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'budgetCostICER.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # Cost of working hours care meansOutput = [] sdOutput = [] for j in range(numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalCostOWSC'].values[0]) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(policies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per week') ax.set_xticks(x_pos) ax.set_xticklabels(policies) ax.set_title('Working Hours Care Costs (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'workingHoursCareCosts.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # Total Policy Costs meansOutput = [] sdOutput = [] for j in range(numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0 ows = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalCostOWSC'].values[0] policyWindow.append(tfc+pc+ps+tfs+hc+ows) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(policies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per week') ax.set_xticks(x_pos) ax.set_xticklabels(policies) ax.set_title('Total Policy Cost (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'totalPolicyCost.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # ICERT newPolicies = policies[1:] meansOutput = [] sdOutput = [] for j in range(1, numPolicies): values = [] for z in range(numRepeats): policyWindow = [] for yearOutput in range(2025, 2036, 1): tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0 ows = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalCostOWSC'].values[0] policyCost = tfc+pc+ps+tfs+hc+ows tfc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0] pc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicChildCare'].values[0] ps = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicSocialCare'].values[0] tfs = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0] hc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0 ows = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalCostOWSC'].values[0] benchmarkCost = tfc+pc+ps+tfs+hc+ows deltaCost = policyCost-benchmarkCost hourUnmetCarePolicy = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0] hourUnmetCareBenchmark = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0] deltaCare = hourUnmetCareBenchmark-hourUnmetCarePolicy policyWindow.append(deltaCost/deltaCare) values.append(np.mean(policyWindow)) meansOutput.append(np.mean(values)) sdOutput.append(np.std(values)) fig, ax = plt.subplots() x_pos = np.arange(len(newPolicies)) ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10) ax.set_ylabel('Pounds per hour') ax.set_xticks(x_pos) ax.set_xticklabels(newPolicies) ax.set_title('Total Cost ICER (mean 2025-2035)') ax.yaxis.grid(True) fig.tight_layout() path = os.path.join(scenarioFolder, 'totalCostICER.pdf') pp = PdfPages(path) pp.savefig(fig) pp.close() # for j in range(numPolicies): # for i in range(numScenarios): # fig, ax = plt.subplots() # Argument: figsize=(5, 3) # graph = [] # for z in range(numRepeats): # graph.append(ax.plot(output[z][i][j]['year'], output[z][i][j]['currentPop'], label = 'Run ' + str(z+1))) # ax.set_title('Populations - ' + 'Scenario ' + str(i+1) + '/Policy ' + str(j)) # ax.set_ylabel('Number of people') # handels, labels = ax.get_legend_handles_labels() # ax.legend(loc = 'lower right') # ax.xaxis.set_major_locator(MaxNLocator(integer=True)) # ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) # ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) # fig.tight_layout() # path = os.path.join(folder, 'popGrowth_axRep_S' + str(i+1) + '_P' + str(j) + '.pdf') # pp = PdfPages(path) # pp.savefig(fig) # pp.close() # # for j in range(numPolicies): # for i in range(numScenarios): # fig, ax = plt.subplots() # Argument: figsize=(5, 3) # graph = [] # for z in range(numRepeats): # graph.append(ax.plot(output[z][i][j]['year'], output[z][i][j]['share_UnmetSocialCareNeed'], label = 'Run ' + str(z+1))) # ax.set_title('Unmet Care Needs - ' + 'Scenario ' + str(i+1) + '/Policy ' + str(j)) # ax.set_ylabel('Unmet Care Needs (share)') # handels, labels = ax.get_legend_handles_labels() # ax.legend(loc = 'lower right') # ax.xaxis.set_major_locator(MaxNLocator(integer=True)) # ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear'])) # ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20)) # fig.tight_layout() # path = os.path.join(folder, 'shareUnmetSocialCareNeeds_axRep_S' + str(i+1) + '_P' + str(j) + '.pdf') # pp = PdfPages(path) # pp.savefig(fig) # pp.close() mP = pd.read_csv('metaParameters.csv', sep=',', header=0) numberRows = mP.shape[0] keys = list(mP.columns.values) values = [] for column in mP: colValues = [] for i in range(numberRows): if pd.isnull(mP.loc[i, column]): break colValues.append(mP[column][i]) values.append(colValues) metaParams = OrderedDict(zip(keys, values)) for key, value in metaParams.iteritems(): if len(value) < 2: metaParams[key] = value[0] graphsParams = pd.read_csv('graphsParams.csv', sep=',', header=0) dummy = list(graphsParams['doGraphs']) for i in range(len(dummy)): if dummy[i] == 1: doGraphs(graphsParams.loc[i], metaParams)
46.660321
153
0.606431
9,695
78,436
4.826199
0.046931
0.029387
0.030092
0.018465
0.838064
0.815409
0.807031
0.789399
0.777816
0.758688
0
0.018393
0.229882
78,436
1,680
154
46.688095
0.756212
0.091323
0
0.759972
0
0
0.176145
0.04711
0
0
0
0
0
1
0.003561
false
0
0.005698
0
0.009259
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
61af0ac365af3ea48f79e46c71cfaee3b5c9e235
24,920
py
Python
monitoring/tests/system/test_vpcsc_v3.py
hugovk/google-cloud-python
b387134827dbc3be0e1b431201e0875798002fda
[ "Apache-2.0" ]
1
2019-03-26T21:44:51.000Z
2019-03-26T21:44:51.000Z
monitoring/tests/system/test_vpcsc_v3.py
hugovk/google-cloud-python
b387134827dbc3be0e1b431201e0875798002fda
[ "Apache-2.0" ]
40
2019-07-16T10:04:48.000Z
2020-01-20T09:04:59.000Z
monitoring/tests/system/test_vpcsc_v3.py
hugovk/google-cloud-python
b387134827dbc3be0e1b431201e0875798002fda
[ "Apache-2.0" ]
2
2019-07-18T00:05:31.000Z
2019-11-27T14:17:22.000Z
# -*- coding: utf-8 -*- # # flake8: noqa # # DO NOT MODIFY! THIS FILE IS AUTO-GENERATED. # This file is auto-generated on 11 Oct 19 21:43 UTC. # Copyright 2019 Google LLC # # Licensed under the Apache License, Version 2.0 (the "License"); # you may not use this file except in compliance with the License. # You may obtain a copy of the License at # # https://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, software # distributed under the License is distributed on an "AS IS" BASIS, # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. # See the License for the specific language governing permissions and # limitations under the License. import os import pytest from google.api_core import exceptions from google.cloud import monitoring_v3 from google.cloud.monitoring_v3 import enums from test_utils.vpcsc_config import vpcsc_config _VPCSC_PROHIBITED_MESSAGE = "Request is prohibited by organization's policy" @pytest.fixture(scope="module") def aps_client(): return monitoring_v3.AlertPolicyServiceClient() @pytest.fixture(scope="module") def name_inside(aps_client): return aps_client.project_path(vpcsc_config.project_inside) @pytest.fixture(scope="module") def name_outside(aps_client): return aps_client.project_path(vpcsc_config.project_outside) @pytest.fixture(scope="module") def alert_policy_path_inside(aps_client): alert_policy_id = "mock_alert_policy" return aps_client.alert_policy_path(vpcsc_config.project_inside, alert_policy_id) @pytest.fixture(scope="module") def alert_policy_path_outside(aps_client): alert_policy_id = "mock_alert_policy" return aps_client.alert_policy_path(vpcsc_config.project_outside, alert_policy_id) @vpcsc_config.skip_unless_inside_vpcsc class TestCRUDAlertPolicies(object): @staticmethod def test_create_alert_policy_inside(aps_client, name_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue aps_client.create_alert_policy(name_inside, {}) @staticmethod def test_create_alert_policy_outside(aps_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: aps_client.create_alert_policy(name_outside, {}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_alert_policies_inside(aps_client, name_inside): list(aps_client.list_alert_policies(name_inside)) @staticmethod def test_list_alert_policies_outside(aps_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(aps_client.list_alert_policies(name_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_alert_policy_inside(aps_client, alert_policy_path_inside): with pytest.raises(exceptions.NotFound): # no perms issue aps_client.get_alert_policy(alert_policy_path_inside) @staticmethod def test_get_alert_policy_outside(aps_client, alert_policy_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: aps_client.get_alert_policy(alert_policy_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_update_alert_policy_inside(aps_client, alert_policy_path_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue aps_client.update_alert_policy({"name": alert_policy_path_inside}) @staticmethod def test_update_alert_policy_outside(aps_client, alert_policy_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: aps_client.update_alert_policy({"name": alert_policy_path_outside}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_delete_alert_policy_inside(aps_client, alert_policy_path_inside): with pytest.raises(exceptions.NotFound): # no perms issue aps_client.delete_alert_policy(alert_policy_path_inside) @staticmethod def test_delete_alert_policy_outside(aps_client, alert_policy_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: aps_client.delete_alert_policy(alert_policy_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @pytest.fixture(scope="module") def gs_client(): return monitoring_v3.GroupServiceClient() @pytest.fixture(scope="module") def group_path_inside(gs_client): group_id = "mock_group" return gs_client.group_path(vpcsc_config.project_inside, group_id) @pytest.fixture(scope="module") def group_path_outside(gs_client): group_id = "mock_group" return gs_client.group_path(vpcsc_config.project_outside, group_id) @vpcsc_config.skip_unless_inside_vpcsc class TestCRUDGroups(object): @staticmethod def test_create_group_inside(gs_client, name_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue gs_client.create_group(name_inside, {}) @staticmethod def test_create_group_outside(gs_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: gs_client.create_group(name_outside, {}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_groups_inside(gs_client, name_inside): list(gs_client.list_groups(name_inside)) @staticmethod def test_list_groups_outside(gs_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(gs_client.list_groups(name_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_group_inside(gs_client, group_path_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue gs_client.get_group(group_path_inside) @staticmethod def test_get_group_outside(gs_client, group_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: gs_client.get_group(group_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_group_members_inside(gs_client, group_path_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue list(gs_client.list_group_members(group_path_inside)) @staticmethod def test_list_group_members_outside(gs_client, group_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(gs_client.list_group_members(group_path_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_update_group_inside(gs_client, group_path_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue gs_client.update_group({"name": group_path_inside}) @staticmethod def test_update_group_outside(gs_client, group_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: gs_client.update_group({"name": group_path_outside}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_delete_group_inside(gs_client, group_path_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue gs_client.delete_group(group_path_inside) @staticmethod def test_delete_group_outside(gs_client, group_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: gs_client.delete_group(group_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @pytest.fixture(scope="module") def ms_client(): return monitoring_v3.MetricServiceClient() @pytest.fixture(scope="module") def metric_descriptor_path_inside(ms_client): metric_descriptor_id = "mock_metric_descriptor" return ms_client.metric_descriptor_path( vpcsc_config.project_inside, metric_descriptor_id ) @pytest.fixture(scope="module") def metric_descriptor_path_outside(ms_client): metric_descriptor_id = "mock_metric_descriptor" return ms_client.metric_descriptor_path( vpcsc_config.project_outside, metric_descriptor_id ) @vpcsc_config.skip_unless_inside_vpcsc class TestCRUDMetricDescriptors(object): @staticmethod def test_create_metric_descriptor_inside(ms_client, name_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue ms_client.create_metric_descriptor(name_inside, {}) @staticmethod def test_create_metric_descriptor_outside(ms_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: ms_client.create_metric_descriptor(name_outside, {}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_metric_descriptors_inside(ms_client, name_inside): list(ms_client.list_metric_descriptors(name_inside)) @staticmethod def test_list_metric_descriptors_outside(ms_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(ms_client.list_metric_descriptors(name_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_metric_descriptor_inside(ms_client, metric_descriptor_path_inside): with pytest.raises(exceptions.NotFound): # no perms issue ms_client.get_metric_descriptor(metric_descriptor_path_inside) @staticmethod def test_get_metric_descriptor_outside(ms_client, metric_descriptor_path_outside): with pytest.raises(exceptions.PermissionDenied) as exc: ms_client.get_metric_descriptor(metric_descriptor_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_delete_metric_descriptor_inside(ms_client, metric_descriptor_path_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue ms_client.delete_metric_descriptor(metric_descriptor_path_inside) @staticmethod def test_delete_metric_descriptor_outside( ms_client, metric_descriptor_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ms_client.delete_metric_descriptor(metric_descriptor_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @vpcsc_config.skip_unless_inside_vpcsc class TestCRUDTimeSeries(object): @staticmethod def test_create_time_series_inside(ms_client, name_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue ms_client.create_time_series(name_inside, {}) @staticmethod def test_create_time_series_outside(ms_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: ms_client.create_time_series(name_outside, {}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_time_series_inside(ms_client, name_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue list( ms_client.list_time_series( name_inside, "", {}, enums.ListTimeSeriesRequest.TimeSeriesView.FULL ) ) @staticmethod def test_list_time_series_outside(ms_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list( ms_client.list_time_series( name_outside, "", {}, enums.ListTimeSeriesRequest.TimeSeriesView.FULL, ) ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @pytest.fixture(scope="module") def monitored_resource_descriptor_path_inside(ms_client): monitored_resource_descriptor_id = "mock_monitored_resource_descriptor" return ms_client.monitored_resource_descriptor_path( vpcsc_config.project_inside, monitored_resource_descriptor_id ) @pytest.fixture(scope="module") def monitored_resource_descriptor_path_outside(ms_client): monitored_resource_descriptor_id = "mock_monitored_resource_descriptor" return ms_client.monitored_resource_descriptor_path( vpcsc_config.project_outside, monitored_resource_descriptor_id ) @vpcsc_config.skip_unless_inside_vpcsc class TestCRUDMonitoredResourceDescriptor(object): @staticmethod def test_list_monitored_resource_descriptors_inside(ms_client, name_inside): list(ms_client.list_monitored_resource_descriptors(name_inside)) @staticmethod def test_list_monitored_resource_descriptors_outside(ms_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(ms_client.list_monitored_resource_descriptors(name_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_monitored_resource_descriptor_inside( ms_client, monitored_resource_descriptor_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ms_client.get_monitored_resource_descriptor( monitored_resource_descriptor_path_inside ) @staticmethod def test_get_monitored_resource_descriptor_outside( ms_client, monitored_resource_descriptor_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ms_client.get_monitored_resource_descriptor( monitored_resource_descriptor_path_outside ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @pytest.fixture(scope="module") def ncs_client(): return monitoring_v3.NotificationChannelServiceClient() @pytest.fixture(scope="module") def notification_channel_path_inside(ncs_client): notification_channel_id = "mock_notification_channel" return ncs_client.notification_channel_path( vpcsc_config.project_inside, notification_channel_id ) @pytest.fixture(scope="module") def notification_channel_descriptor_path_inside(ncs_client): notification_channel_descriptor_id = "mock_notification_channel_descriptor" return ncs_client.notification_channel_descriptor_path( vpcsc_config.project_inside, notification_channel_descriptor_id ) @pytest.fixture(scope="module") def notification_channel_path_outside(ncs_client): notification_channel_id = "mock_notification_channel" return ncs_client.notification_channel_path( vpcsc_config.project_outside, notification_channel_id ) @pytest.fixture(scope="module") def notification_channel_descriptor_path_outside(ncs_client): notification_channel_descriptor_id = "mock_notification_channel_descriptor" return ncs_client.notification_channel_descriptor_path( vpcsc_config.project_outside, notification_channel_descriptor_id ) @vpcsc_config.skip_unless_inside_vpcsc class TestCRUDNotificationChannels(object): @staticmethod def test_create_notification_channel_inside(ncs_client, name_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue ncs_client.create_notification_channel(name_inside, {}) @staticmethod def test_create_notification_channel_outside(ncs_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.create_notification_channel(name_outside, {}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_notification_channels_inside(ncs_client, name_inside): list(ncs_client.list_notification_channels(name_inside)) @staticmethod def test_list_notification_channels_outside(ncs_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(ncs_client.list_notification_channels(name_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_notification_channel_inside( ncs_client, notification_channel_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ncs_client.get_notification_channel(notification_channel_path_inside) @staticmethod def test_get_notification_channel_outside( ncs_client, notification_channel_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.get_notification_channel(notification_channel_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_notification_channel_verification_code_inside( ncs_client, notification_channel_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ncs_client.get_notification_channel_verification_code( notification_channel_path_inside ) @staticmethod def test_get_notification_channel_verification_code_outside( ncs_client, notification_channel_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.get_notification_channel_verification_code( notification_channel_path_outside ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_send_notification_channel_verification_code_inside( ncs_client, notification_channel_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ncs_client.send_notification_channel_verification_code( notification_channel_path_inside ) @staticmethod def test_send_notification_channel_verification_code_outside( ncs_client, notification_channel_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.send_notification_channel_verification_code( notification_channel_path_outside ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_verify_notification_channel_inside( ncs_client, notification_channel_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ncs_client.verify_notification_channel(notification_channel_path_inside, "") @staticmethod def test_verify_notification_channel_outside( ncs_client, notification_channel_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.verify_notification_channel( notification_channel_path_outside, "" ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_update_notification_channel_inside( ncs_client, notification_channel_path_inside ): with pytest.raises(exceptions.InvalidArgument): # no perms issue ncs_client.update_notification_channel( {"name": notification_channel_path_inside} ) @staticmethod def test_update_notification_channel_outside( ncs_client, notification_channel_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.update_notification_channel( {"name": notification_channel_path_outside} ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_delete_notification_channel_inside( ncs_client, notification_channel_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ncs_client.delete_notification_channel(notification_channel_path_inside) @staticmethod def test_delete_notification_channel_outside( ncs_client, notification_channel_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.delete_notification_channel(notification_channel_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_notification_channel_descriptors_inside(ncs_client, name_inside): list(ncs_client.list_notification_channel_descriptors(name_inside)) @staticmethod def test_list_notification_channel_descriptors_outside(ncs_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(ncs_client.list_notification_channel_descriptors(name_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_notification_channel_descriptor_inside( ncs_client, notification_channel_descriptor_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ncs_client.get_notification_channel_descriptor( notification_channel_descriptor_path_inside ) @staticmethod def test_get_notification_channel_descriptor_outside( ncs_client, notification_channel_descriptor_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ncs_client.get_notification_channel_descriptor( notification_channel_descriptor_path_outside ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @pytest.fixture(scope="module") def ucc_client(): return monitoring_v3.UptimeCheckServiceClient() @pytest.fixture(scope="module") def uptime_check_config_path_inside(ucc_client): uptime_check_config_id = "mock_notification_channel" return ucc_client.uptime_check_config_path( vpcsc_config.project_inside, uptime_check_config_id ) @pytest.fixture(scope="module") def uptime_check_config_path_outside(ucc_client): uptime_check_config_id = "mock_notification_channel" return ucc_client.uptime_check_config_path( vpcsc_config.project_outside, uptime_check_config_id ) @vpcsc_config.skip_unless_inside_vpcsc class TestCRUDUptimeCheckConfigs(object): @staticmethod def test_create_uptime_check_config_inside(ucc_client, name_inside): with pytest.raises(exceptions.InvalidArgument): # no perms issue ucc_client.create_uptime_check_config(name_inside, {}) @staticmethod def test_create_uptime_check_config_outside(ucc_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: ucc_client.create_uptime_check_config(name_outside, {}) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_list_uptime_check_configs_inside(ucc_client, name_inside): list(ucc_client.list_uptime_check_configs(name_inside)) @staticmethod def test_list_uptime_check_configs_outside(ucc_client, name_outside): with pytest.raises(exceptions.PermissionDenied) as exc: list(ucc_client.list_uptime_check_configs(name_outside)) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_get_uptime_check_config_inside( ucc_client, uptime_check_config_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ucc_client.get_uptime_check_config(uptime_check_config_path_inside) @staticmethod def test_get_uptime_check_config_outside( ucc_client, uptime_check_config_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ucc_client.get_uptime_check_config(uptime_check_config_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_update_uptime_check_config_inside( ucc_client, uptime_check_config_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ucc_client.update_uptime_check_config( {"name": uptime_check_config_path_inside} ) @staticmethod def test_update_uptime_check_config_outside( ucc_client, uptime_check_config_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ucc_client.update_uptime_check_config( {"name": uptime_check_config_path_outside} ) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message @staticmethod def test_delete_uptime_check_config_inside( ucc_client, uptime_check_config_path_inside ): with pytest.raises(exceptions.NotFound): # no perms issue ucc_client.delete_uptime_check_config(uptime_check_config_path_inside) @staticmethod def test_delete_uptime_check_config_outside( ucc_client, uptime_check_config_path_outside ): with pytest.raises(exceptions.PermissionDenied) as exc: ucc_client.delete_uptime_check_config(uptime_check_config_path_outside) assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
36.863905
88
0.753973
2,928
24,920
5.984973
0.059085
0.093244
0.073727
0.090504
0.921536
0.901221
0.837024
0.775622
0.734307
0.687058
0
0.00123
0.184631
24,920
675
89
36.918519
0.861214
0.043419
0
0.552
1
0
0.022782
0.011937
0
0
0
0
0.068
1
0.178
false
0
0.012
0.014
0.246
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
61c68d640b924eca1c079ae4f9c87625028e4368
533
py
Python
Codewars/8kyu/count-of-positives-slash-sum-of-negatives/Python/test.py
RevansChen/online-judge
ad1b07fee7bd3c49418becccda904e17505f3018
[ "MIT" ]
7
2017-09-20T16:40:39.000Z
2021-08-31T18:15:08.000Z
Codewars/8kyu/count-of-positives-slash-sum-of-negatives/Python/test.py
RevansChen/online-judge
ad1b07fee7bd3c49418becccda904e17505f3018
[ "MIT" ]
null
null
null
Codewars/8kyu/count-of-positives-slash-sum-of-negatives/Python/test.py
RevansChen/online-judge
ad1b07fee7bd3c49418becccda904e17505f3018
[ "MIT" ]
null
null
null
# Python - 3.4.3 Test.describe("Basic tests") Test.assert_equals(count_positives_sum_negatives([1, 2, 3, 4, 5, 6, 7, 8, 9, 10, -11, -12, -13, -14, -15]),[10,-65]) Test.assert_equals(count_positives_sum_negatives([0, 2, 3, 0, 5, 6, 7, 8, 9, 10, -11, -12, -13, -14]),[8,-50]) Test.assert_equals(count_positives_sum_negatives([1]),[1,0]) Test.assert_equals(count_positives_sum_negatives([-1]),[0,-1]) Test.assert_equals(count_positives_sum_negatives([0,0,0,0,0,0,0,0,0]),[0,0]) Test.assert_equals(count_positives_sum_negatives([]),[])
53.3
116
0.69606
100
533
3.47
0.29
0.057637
0.07781
0.092219
0.85879
0.85879
0.85879
0.85879
0.118156
0.118156
0
0.135903
0.075047
533
9
117
59.222222
0.567951
0.026266
0
0
0
0
0.021277
0
0
0
0
0
0.857143
1
0
true
0
0
0
0
0
0
0
0
null
0
0
0
1
1
1
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
1
0
0
1
0
0
0
0
0
0
7
f6095c9556dc6e4f803079cd0a92c7a021954580
26,153
py
Python
infoblox_netmri/api/broker/v3_8_0/auth_cac_cert_broker.py
infobloxopen/infoblox_netmri
aa1c744df7e439dbe163bb9edd165e4e85a9771b
[ "Apache-2.0" ]
12
2016-02-19T12:37:54.000Z
2022-03-04T20:11:08.000Z
infoblox_netmri/api/broker/v3_8_0/auth_cac_cert_broker.py
infobloxopen/infoblox_netmri
aa1c744df7e439dbe163bb9edd165e4e85a9771b
[ "Apache-2.0" ]
18
2015-11-12T18:37:00.000Z
2021-05-19T07:59:55.000Z
infoblox_netmri/api/broker/v3_8_0/auth_cac_cert_broker.py
infobloxopen/infoblox_netmri
aa1c744df7e439dbe163bb9edd165e4e85a9771b
[ "Apache-2.0" ]
18
2016-01-07T12:04:34.000Z
2022-03-31T11:05:41.000Z
from ..broker import Broker class AuthCacCertBroker(Broker): controller = "auth_cac_certs" def index(self, **kwargs): """Lists the available auth cac certs. Any of the inputs listed may be be used to narrow the list; other inputs will be ignored. Of the various ways to query lists, using this method is most efficient. **Inputs** | ``api version min:`` 3.7 | ``api version max:`` None | ``required:`` False | ``default:`` None :param auth_server_id: ID of auth server of OCSP auth service :type auth_server_id: Array of Integer | ``api version min:`` 3.7 | ``api version max:`` None | ``required:`` False | ``default:`` None :param id: Record ID :type id: Array of Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` 0 :param start: The record number to return in the selected page of data. It will always appear, although it may not be the first record. See the :limit for more information. :type start: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` 1000 :param limit: The size of the page of data, that is, the maximum number of records returned. The limit size will be used to break the data up into pages and the first page with the start record will be returned. So if you have 100 records and use a :limit of 10 and a :start of 10, you will get records 10-19. The maximum limit is 10000. :type limit: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` id :param sort: The data field(s) to use for sorting the output. Default is id. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. :type sort: Array of String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` asc :param dir: The direction(s) in which to sort the data. Default is 'asc'. Valid values are 'asc' and 'desc'. :type dir: Array of String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param select: The list of attributes to return for each AuthCacCert. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. If empty or omitted, all attributes will be returned. :type select: Array | ``api version min:`` 2.8 | ``api version max:`` None | ``required:`` False | ``default:`` None :param goto_field: The field name for NIOS GOTO that is used for locating a row position of records. :type goto_field: String | ``api version min:`` 2.8 | ``api version max:`` None | ``required:`` False | ``default:`` None :param goto_value: The value of goto_field for NIOS GOTO that is used for locating a row position of records. :type goto_value: String **Outputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return auth_cac_certs: An array of the AuthCacCert objects that match the specified input criteria. :rtype auth_cac_certs: Array of AuthCacCert """ return self.api_list_request(self._get_method_fullname("index"), kwargs) def show(self, **kwargs): """Shows the details for the specified auth cac cert. **Inputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` True | ``default:`` None :param id: Record ID :type id: Integer **Outputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return auth_cac_cert: The auth cac cert identified by the specified id. :rtype auth_cac_cert: AuthCacCert """ return self.api_request(self._get_method_fullname("show"), kwargs) def search(self, **kwargs): """Lists the available auth cac certs matching the input criteria. This method provides a more flexible search interface than the index method, but searching using this method is more demanding on the system and will not perform to the same level as the index method. The input fields listed below will be used as in the index method, to filter the result, along with the optional query string and XML filter described below. **Inputs** | ``api version min:`` 3.7 | ``api version max:`` None | ``required:`` False | ``default:`` None :param auth_server_id: ID of auth server of OCSP auth service :type auth_server_id: Array of Integer | ``api version min:`` 3.7 | ``api version max:`` None | ``required:`` False | ``default:`` None :param id: Record ID :type id: Array of Integer | ``api version min:`` 3.7 | ``api version max:`` None | ``required:`` False | ``default:`` None :param is_ocsp_cert: Use cert in OCSP requests if TRUE :type is_ocsp_cert: Array of Boolean | ``api version min:`` 3.7 | ``api version max:`` None | ``required:`` False | ``default:`` None :param uploaded_certificate_id: ID of linked uploaded certificate :type uploaded_certificate_id: Array of Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` 0 :param start: The record number to return in the selected page of data. It will always appear, although it may not be the first record. See the :limit for more information. :type start: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` 1000 :param limit: The size of the page of data, that is, the maximum number of records returned. The limit size will be used to break the data up into pages and the first page with the start record will be returned. So if you have 100 records and use a :limit of 10 and a :start of 10, you will get records 10-19. The maximum limit is 10000. :type limit: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` id :param sort: The data field(s) to use for sorting the output. Default is id. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. :type sort: Array of String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` asc :param dir: The direction(s) in which to sort the data. Default is 'asc'. Valid values are 'asc' and 'desc'. :type dir: Array of String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param select: The list of attributes to return for each AuthCacCert. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. If empty or omitted, all attributes will be returned. :type select: Array | ``api version min:`` 2.8 | ``api version max:`` None | ``required:`` False | ``default:`` None :param goto_field: The field name for NIOS GOTO that is used for locating a row position of records. :type goto_field: String | ``api version min:`` 2.8 | ``api version max:`` None | ``required:`` False | ``default:`` None :param goto_value: The value of goto_field for NIOS GOTO that is used for locating a row position of records. :type goto_value: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param query: This value will be matched against auth cac certs, looking to see if one or more of the listed attributes contain the passed value. You may also surround the value with '/' and '/' to perform a regular expression search rather than a containment operation. Any record that matches will be returned. The attributes searched are: auth_server_id, id, is_ocsp_cert, uploaded_certificate_id. :type query: String | ``api version min:`` 2.3 | ``api version max:`` None | ``required:`` False | ``default:`` None :param xml_filter: A SetFilter XML structure to further refine the search. The SetFilter will be applied AFTER any search query or field values, but before any limit options. The limit and pagination will be enforced after the filter. Remind that this kind of filter may be costly and inefficient if not associated with a database filtering. :type xml_filter: String **Outputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return auth_cac_certs: An array of the AuthCacCert objects that match the specified input criteria. :rtype auth_cac_certs: Array of AuthCacCert """ return self.api_list_request(self._get_method_fullname("search"), kwargs) def find(self, **kwargs): """Lists the available auth cac certs matching the input specification. This provides the most flexible search specification of all the query mechanisms, enabling searching using comparison operations other than equality. However, it is more complex to use and will not perform as efficiently as the index or search methods. In the input descriptions below, 'field names' refers to the following fields: auth_server_id, id, is_ocsp_cert, uploaded_certificate_id. **Inputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param op_auth_server_id: The operator to apply to the field auth_server_id. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. auth_server_id: ID of auth server of OCSP auth service For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values. :type op_auth_server_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_f_auth_server_id: If op_auth_server_id is specified, the field named in this input will be compared to the value in auth_server_id using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_auth_server_id must be specified if op_auth_server_id is specified. :type val_f_auth_server_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_c_auth_server_id: If op_auth_server_id is specified, this value will be compared to the value in auth_server_id using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_auth_server_id must be specified if op_auth_server_id is specified. :type val_c_auth_server_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param op_id: The operator to apply to the field id. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. id: Record ID For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values. :type op_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_f_id: If op_id is specified, the field named in this input will be compared to the value in id using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_id must be specified if op_id is specified. :type val_f_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_c_id: If op_id is specified, this value will be compared to the value in id using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_id must be specified if op_id is specified. :type val_c_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param op_is_ocsp_cert: The operator to apply to the field is_ocsp_cert. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. is_ocsp_cert: Use cert in OCSP requests if TRUE For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values. :type op_is_ocsp_cert: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_f_is_ocsp_cert: If op_is_ocsp_cert is specified, the field named in this input will be compared to the value in is_ocsp_cert using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_is_ocsp_cert must be specified if op_is_ocsp_cert is specified. :type val_f_is_ocsp_cert: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_c_is_ocsp_cert: If op_is_ocsp_cert is specified, this value will be compared to the value in is_ocsp_cert using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_is_ocsp_cert must be specified if op_is_ocsp_cert is specified. :type val_c_is_ocsp_cert: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param op_uploaded_certificate_id: The operator to apply to the field uploaded_certificate_id. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. uploaded_certificate_id: ID of linked uploaded certificate For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values. :type op_uploaded_certificate_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_f_uploaded_certificate_id: If op_uploaded_certificate_id is specified, the field named in this input will be compared to the value in uploaded_certificate_id using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_uploaded_certificate_id must be specified if op_uploaded_certificate_id is specified. :type val_f_uploaded_certificate_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param val_c_uploaded_certificate_id: If op_uploaded_certificate_id is specified, this value will be compared to the value in uploaded_certificate_id using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_uploaded_certificate_id must be specified if op_uploaded_certificate_id is specified. :type val_c_uploaded_certificate_id: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` 0 :param start: The record number to return in the selected page of data. It will always appear, although it may not be the first record. See the :limit for more information. :type start: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` 1000 :param limit: The size of the page of data, that is, the maximum number of records returned. The limit size will be used to break the data up into pages and the first page with the start record will be returned. So if you have 100 records and use a :limit of 10 and a :start of 10, you will get records 10-19. The maximum limit is 10000. :type limit: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` id :param sort: The data field(s) to use for sorting the output. Default is id. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. :type sort: Array of String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` asc :param dir: The direction(s) in which to sort the data. Default is 'asc'. Valid values are 'asc' and 'desc'. :type dir: Array of String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param select: The list of attributes to return for each AuthCacCert. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. If empty or omitted, all attributes will be returned. :type select: Array | ``api version min:`` 2.8 | ``api version max:`` None | ``required:`` False | ``default:`` None :param goto_field: The field name for NIOS GOTO that is used for locating a row position of records. :type goto_field: String | ``api version min:`` 2.8 | ``api version max:`` None | ``required:`` False | ``default:`` None :param goto_value: The value of goto_field for NIOS GOTO that is used for locating a row position of records. :type goto_value: String | ``api version min:`` 2.3 | ``api version max:`` None | ``required:`` False | ``default:`` None :param xml_filter: A SetFilter XML structure to further refine the search. The SetFilter will be applied AFTER any search query or field values, but before any limit options. The limit and pagination will be enforced after the filter. Remind that this kind of filter may be costly and inefficient if not associated with a database filtering. :type xml_filter: String **Outputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return auth_cac_certs: An array of the AuthCacCert objects that match the specified input criteria. :rtype auth_cac_certs: Array of AuthCacCert """ return self.api_list_request(self._get_method_fullname("find"), kwargs) def create(self, **kwargs): """Creates a new auth cac cert. **Inputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` True | ``default:`` None :param auth_server_id: ID of auth server of OCSP auth service :type auth_server_id: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` True | ``default:`` None :param uploaded_certificate_id: ID of linked uploaded certificate :type uploaded_certificate_id: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` True :param is_ocsp_cert: Use cert in OCSP requests if TRUE :type is_ocsp_cert: Boolean **Outputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return id: The id of the newly created auth cac cert. :rtype id: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return model: The class name of the newly created auth cac cert. :rtype model: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return uri: A URI that may be used to retrieve the newly created auth cac cert. :rtype uri: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return auth_cac_cert: The newly created auth cac cert. :rtype auth_cac_cert: AuthCacCert """ return self.api_request(self._get_method_fullname("create"), kwargs) def update(self, **kwargs): """Updates an existing auth cac cert. **Inputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` True | ``default:`` None :param id: Record ID :type id: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param auth_server_id: ID of auth server of OCSP auth service If omitted, this field will not be updated. :type auth_server_id: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param uploaded_certificate_id: ID of linked uploaded certificate If omitted, this field will not be updated. :type uploaded_certificate_id: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :param is_ocsp_cert: Use cert in OCSP requests if TRUE If omitted, this field will not be updated. :type is_ocsp_cert: Boolean **Outputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return id: The id of the updated auth cac cert. :rtype id: Integer | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return model: The class name of the updated auth cac cert. :rtype model: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return uri: A URI that may be used to retrieve the updated auth cac cert. :rtype uri: String | ``api version min:`` None | ``api version max:`` None | ``required:`` False | ``default:`` None :return auth_cac_cert: The updated auth cac cert. :rtype auth_cac_cert: AuthCacCert """ return self.api_request(self._get_method_fullname("update"), kwargs) def destroy(self, **kwargs): """Deletes the specified auth cac cert from NetMRI. **Inputs** | ``api version min:`` None | ``api version max:`` None | ``required:`` True | ``default:`` None :param id: Record ID :type id: Integer **Outputs** """ return self.api_request(self._get_method_fullname("destroy"), kwargs)
44.553663
470
0.578289
3,317
26,153
4.459451
0.077781
0.085181
0.055368
0.072404
0.902312
0.899811
0.897647
0.893186
0.87669
0.869794
0
0.005212
0.332352
26,153
586
471
44.629693
0.841933
0.778916
0
0
0
0
0.055085
0
0
0
0
0
0
1
0.411765
false
0
0.058824
0
1
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
0
1
0
0
8
f666f7187a94b099d60c711ba26c1c7802954772
167
py
Python
test/test_sum.py
andreselmomoy/tarea_1
344f47d8cea1447b77ff73e0c30d7a263e85f11d
[ "Apache-2.0" ]
4
2020-08-31T15:15:58.000Z
2021-09-28T23:37:42.000Z
test/test_sum.py
andreselmomoy/tarea_1
344f47d8cea1447b77ff73e0c30d7a263e85f11d
[ "Apache-2.0" ]
null
null
null
test/test_sum.py
andreselmomoy/tarea_1
344f47d8cea1447b77ff73e0c30d7a263e85f11d
[ "Apache-2.0" ]
14
2020-08-21T00:57:58.000Z
2022-03-25T17:56:01.000Z
def test_sum_two_correctly(): assert 2 + 2 == 4 def test_sum_two_incorrectly(): # Expected to fail. Replace by # assert 3 + 3 == 6 assert 3 + 3 == 5
18.555556
34
0.610778
27
167
3.555556
0.62963
0.145833
0.208333
0.270833
0
0
0
0
0
0
0
0.075
0.281437
167
8
35
20.875
0.725
0.275449
0
0
0
0
0
0
0
0
0
0
0.5
1
0.5
true
0
0
0
0.5
0
1
0
0
null
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
1
0
1
1
0
0
0
0
0
0
7
9caf3635973892bd5c1c1ac119f5d41cc4c123eb
29,275
py
Python
models/SN_mnist.py
MPCAICDM/MPCA
c996435a0578ea4160f934bc01041c2ef23468f3
[ "MIT" ]
null
null
null
models/SN_mnist.py
MPCAICDM/MPCA
c996435a0578ea4160f934bc01041c2ef23468f3
[ "MIT" ]
null
null
null
models/SN_mnist.py
MPCAICDM/MPCA
c996435a0578ea4160f934bc01041c2ef23468f3
[ "MIT" ]
null
null
null
import torch import torch.nn as nn from models.blocks.estimator_1D import Estimator1D from models.blocks.LSA_blocks import DownsampleBlock, UpsampleBlock, ResidualBlock from functools import reduce from operator import mul class _Encoder_LSA(nn.Module): def __init__(self, in_channels, hidden_layer_sizes, activation, pad_mode, bn, is_flatten=False, flatten_size=0): super(_Encoder_LSA, self).__init__() self.conv = nn.Sequential( #nn.Conv2d(in_channels=in_channels, out_channels=hidden_layer_sizes[0], kernel_size=3, bias=False), #activation, #ResidualBlock(channel_in=32, channel_out=32, activation_fn=activation, use_bn=False), DownsampleBlock(channel_in=in_channels, channel_out=32, activation_fn=activation, use_bn=False), DownsampleBlock(channel_in=32, channel_out=64, activation_fn=activation, use_bn=False), #DownsampleBlock(channel_in=128, channel_out=256, activation_fn=activation, use_bn=False), ) self.deepest_shape = (64, 32 // 4, 32 // 4) # FC network self.fc = nn.Sequential( nn.Linear(in_features=reduce(mul, self.deepest_shape), out_features=64), # nn.BatchNorm1d(num_features=256), activation, nn.Linear(in_features=64, out_features=flatten_size), nn.Tanh() # TODO replace with tanh cause our data are scaled to [-1, 1] ) def forward(self, x): h = x h = self.conv(h) h = h.view(len(h), -1) o = self.fc(h) return o class _Decoder_LSA(nn.Module): """ CIFAR10 model decoder. """ def __init__(self, in_channels,out_channels, h_shape, hidden_layer_sizes, activation,pad_mode,bn, group=1, last_channel=16, add_conv=False): super(_Decoder_LSA, self).__init__() self.deepest_shape = (64, 32 // 4, 32 // 4) # FC network self.fc = nn.Sequential( nn.Linear(in_features=in_channels, out_features=64), #nn.BatchNorm1d(num_features=256), activation, nn.Linear(in_features=64, out_features=reduce(mul, self.deepest_shape)), activation ) # Convolutional network self.conv = nn.Sequential( UpsampleBlock(channel_in=64, channel_out=32, activation_fn=activation, use_bn=False), UpsampleBlock(channel_in=32, channel_out=16, activation_fn=activation, use_bn=False), #UpsampleBlock(channel_in=64, channel_out=32, activation_fn=activation, use_bn=False), #ResidualBlock(channel_in=32, channel_out=32, activation_fn=activation, use_bn=False), nn.Conv2d(in_channels=16, out_channels=3, kernel_size=1, bias=False) ) def forward(self, x): # types: (torch.Tensor) -> torch.Tensor """ Forward propagation. :param x: the batch of latent vectors. :return: the batch of reconstructions. """ h = x h = self.fc(h) h = h.view(len(h), *self.deepest_shape) h = self.conv(h) o = h return o class _Encoder(nn.Module): def __init__(self, in_channels, hidden_layer_sizes, activation, pad_mode, bn, is_flatten=False, flatten_size=0): super(_Encoder, self).__init__() self.activation = activation self.hidden_layer_sizes = hidden_layer_sizes layers = [] layers.append(nn.Conv2d(in_channels=in_channels, out_channels=hidden_layer_sizes[0], kernel_size=5, stride=2, padding=2)) layers.append(self.activation) if bn: layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[0])) layers.append(nn.Conv2d(in_channels=hidden_layer_sizes[0], out_channels=hidden_layer_sizes[1], kernel_size=5, stride=2, padding=2)) layers.append(self.activation) if bn: layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[1])) layers.append(nn.Conv2d(in_channels=hidden_layer_sizes[1], out_channels=hidden_layer_sizes[2], kernel_size=3, stride=2, padding=pad_mode)) layers.append(self.activation) if bn: layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[2])) if is_flatten: h_channels = hidden_layer_sizes[2] * 4 * 4 layers.append(nn.Flatten()) layers.append(nn.Linear(h_channels, flatten_size)) layers.append(nn.Tanh()) # self.activation TODO self.layers = nn.Sequential(*layers) print(self.layers) def forward(self, x): return self.layers(x) class _Encoder_Linear(nn.Module): def __init__(self, in_channels, hidden_layer_sizes, activation, bn, last_activ=None, is_flatten=False, flatten_size=None): super(_Encoder_Linear, self).__init__() self.activation = activation self.hidden_layer_sizes = hidden_layer_sizes layers = [] if last_activ is None: for ic, oc in zip([in_channels] + hidden_layer_sizes[:-1], hidden_layer_sizes): layers.append(nn.Linear(in_features=ic, out_features=oc)) layers.append(self.activation) if bn : layers.append( nn.BatchNorm1d(num_features=oc)) else: for ic, oc in zip([in_channels] + hidden_layer_sizes[:-1], hidden_layer_sizes): layers.append(nn.Linear(in_features=ic, out_features=oc)) layers.append(self.activation) layers = layers[:-1] layers.append(last_activ) if is_flatten: h_channels = hidden_layer_sizes[-1] layers.append(nn.Linear(in_features=h_channels, out_features=flatten_size)) layers.append(self.activation) self.layers = nn.Sequential(*layers) print(self.layers) def forward(self, x): return self.layers(x) class _Decoder(nn.Module): def __init__(self, in_channels,out_channels, h_shape, hidden_layer_sizes, activation,pad_mode,bn, group=1, last_channel=16, add_conv=False): super(_Decoder, self).__init__() self.activation = activation self.hidden_layer_sizes = hidden_layer_sizes self.h_shape = h_shape h_channels = h_shape[0]*h_shape[1]*h_shape[2] self.fc = nn.Linear(in_features=in_channels, out_features=h_channels) self.bnlayer = nn.BatchNorm2d(num_features=h_shape[0]) if bn else None layers = [] layers.append(nn.ConvTranspose2d(in_channels=h_shape[0], out_channels=hidden_layer_sizes[1], kernel_size=3, stride=2, padding=pad_mode, output_padding=pad_mode)) layers.append(self.activation) if bn: layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[1])) layers.append( nn.ConvTranspose2d(in_channels=hidden_layer_sizes[1], out_channels=hidden_layer_sizes[0], kernel_size=5, stride=2,padding=2, output_padding=1)) layers.append(self.activation) if bn: layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[0])) self.group = group if add_conv: layers.append(nn.ConvTranspose2d(in_channels=hidden_layer_sizes[0], out_channels=last_channel, kernel_size=5, stride=2, padding=2, output_padding=1)) layers.append(self.activation) if bn: layers.append(nn.BatchNorm2d(num_features=last_channel)) layers.append(nn.Conv2d(in_channels=last_channel, out_channels=out_channels*group, kernel_size=1,groups=group, bias=False)) layers.append(self.activation) else: layers.append(nn.ConvTranspose2d(in_channels=hidden_layer_sizes[0], out_channels=out_channels * group, kernel_size=5, stride=2, padding=2, output_padding=1)) layers.append(nn.Tanh()) #TODO self.layers = nn.Sequential(*layers) print(self.layers) def forward(self, x): h = self.fc(x) h = self.activation(h) h = h.view(-1, *self.h_shape) if self.bnlayer is not None: h = self.bn(h) return self.layers(h) class _Decoder_Linear(nn.Module): def __init__(self, in_channels,out_channels, hidden_layer_sizes, activation, bn): super(_Decoder_Linear, self).__init__() self.activation = activation self.hidden_layer_sizes = hidden_layer_sizes hidden_layer_sizes = hidden_layer_sizes[::-1] layers = [] for ic, oc in zip([in_channels] + hidden_layer_sizes[:-1], hidden_layer_sizes): layers.append(nn.Linear(in_features=ic, out_features=oc)) layers.append(self.activation) if bn: layers.append(nn.BatchNorm1d(num_features=oc)) layers.append(nn.Linear(in_features=hidden_layer_sizes[-1], out_features=out_channels)) layers.append(self.activation) self.deconv = nn.Sequential(*layers) print(self.deconv) def forward(self, x): h = self.deconv(x) return h class SN_MNIST(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, add_conv): super(SN_MNIST, self).__init__() c, h, w = input_shape pad_mode = 1 if h % 8 == 0 else 0 self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode) h_shape = (hidden_layer_sizes[2], h//8, w//8) h_channels = h_shape[0]*h_shape[1]*h_shape[2] self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) #self.N = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.decoder = _Decoder(in_channels=z_channels, out_channels=c, h_shape=h_shape, hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh(), pad_mode=pad_mode, add_conv=add_conv) def forward(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) y_rsr = torch.matmul(y, self.A) #y_rsr = torch.matmul(y_rsr, self.A.t()) #n_rsr = torch.matmul(y, self.N) #z = torch.cat((y_rsr, n_rsr), dim=1) z = y_rsr x_r = self.decoder(z) #print(y.shape, y_rsr.shape, z.shape, x_r.shape) return y, y_rsr, z, x_r class RSRBoneV2Linear(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, group, bn): super(RSRBoneV2Linear, self).__init__() c= input_shape self.input_shape = input_shape self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels)) self.group = group self.input_c = c self.decoder = _Decoder_Linear(in_channels=z_channels, out_channels=c, hidden_layer_sizes=hidden_layer_sizes,activation=nn.ReLU(), bn=bn) def forward(self, x): y = self.encoder(x) y_rsr = torch.matmul(y, self.A) x_r1 = self.decoder(y_rsr) x_r = (x_r1,) return y_rsr, x_r, x_r1 class RSRBoneV3Linear(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, bn): super(RSRBoneV3Linear, self).__init__() c= input_shape self.input_shape = input_shape self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) self.A = nn.Linear(in_features=hidden_layer_sizes[2], out_features=z_channels, bias=False) #self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels)) self.input_c = c self.decoder = _Decoder_Linear(in_channels=z_channels, out_channels=c, hidden_layer_sizes=hidden_layer_sizes,activation=nn.ReLU(), bn=bn) self.estimator = Estimator1D( code_length=z_channels, fm_list=[32, 32, 32, 32], cpd_channels=100 ) self.sigmoid = nn.Sigmoid() def forward(self, x): y = self.encoder(x) y_rsr = self.A(y) #y_rsr = torch.matmul(y, self.A) y_rsr = self.sigmoid(y_rsr) x_r = self.decoder(y_rsr) z_dist = self.estimator(y_rsr) return y_rsr, x_r, z_dist class RSRBoneV2(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, group, add_conv): super(RSRBoneV2, self).__init__() c, h, w = input_shape self.input_shape = input_shape pad_mode = 1 if h % 8 == 0 else 0 self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode) h_shape = (hidden_layer_sizes[2], h//8, w//8) h_channels = h_shape[0]*h_shape[1]*h_shape[2] self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.group = group self.input_c = c last_channel = 16 if add_conv else 1 self.decoder = _Decoder(in_channels=z_channels, out_channels=c, h_shape=h_shape, hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh(), group=group, last_channel=last_channel,pad_mode=pad_mode, add_conv=add_conv) def forward(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) #print(y.shape) y_rsr = torch.matmul(y, self.A) x_r1 = self.decoder(y_rsr) #print(x_r1.shape) #x_r1 = x_r1.view(-1, self.group*self.input_shape[0], *self.input_shape[1:]) #print(x_r1.shape) if self.group == 1: x_r = (x_r1,) return y_rsr, x_r, x_r1 elif self.input_c == 1: x_r = torch.chunk(x_r1, self.group, dim=1) return y_rsr, x_r, x_r1.mean(dim=1, keepdim=True) else: raise NotImplementedError class RSRBoneType(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode): super(RSRBoneType, self).__init__() c, h, w = input_shape self.mode = mode self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh()) h_shape = (hidden_layer_sizes[2], h//8, w//8) h_channels = h_shape[0]*h_shape[1]*h_shape[2] self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.decoder = _Decoder(in_channels=h_channels, out_channels=c, h_shape=h_shape, hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh()) def forward(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) y_rsr = torch.matmul(y, self.A) y_rsr = torch.matmul(y_rsr, self.A.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) else: x_r = self.decoder(y) return y, y_rsr, x_r def predict(self, x, mod=None): if mod is None: mod = self.mode y = self.encoder(x) y = y.view(y.shape[0], -1) y_rsr = torch.matmul(y, self.A) y_rsr = torch.matmul(y_rsr, self.A.t()) if mod == 'A': x_r = self.decoder(y) else: x_r = self.decoder(y_rsr) return y, y_rsr, x_r class RSRBoneTypeV2(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode): super(RSRBoneTypeV2, self).__init__() c, h, w = input_shape self.mode = mode pad_mode = 1 if h % 8 == 0 else 0 self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode) h_shape = (hidden_layer_sizes[2], h//8, w//8) h_channels = h_shape[0]*h_shape[1]*h_shape[2] self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.decoder = _Decoder(in_channels=h_channels, out_channels=c, h_shape=h_shape, hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh(), pad_mode=pad_mode) def forward(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) else: x_r = self.decoder(y) return y, y_rsr, x_r def predict(self, x, mod=None): if mod is None: mod = self.mode y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if mod == 'A': x_r = self.decoder(y) else: x_r = self.decoder(y_rsr) return y, y_rsr, x_r class RSRBoneTypeV3Linear(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB): super(RSRBoneTypeV3Linear, self).__init__() c = input_shape self.mode = mode # A or B or AB self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels)) if shareAB: self.B = self.A print('shareAB') else: self.B = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels)) self.decoder = _Decoder_Linear(in_channels=hidden_layer_sizes[2], out_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) def forward(self, x): y = self.encoder(x) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) elif self.mode == 'B': x_r = self.decoder(y) else: x_r = self.decoder((y_rsr + y)/2.) return y, y_rsr, x_r def predict(self, x): y = self.encoder(x) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) x_rA = self.decoder(y_rsr) x_rB = self.decoder(y) x_rAB = self.decoder((y_rsr + y) / 2.) return y, y_rsr, (x_rA, x_rB, x_rAB) class RSRBoneTypeV3(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB): super(RSRBoneTypeV3, self).__init__() c, h, w = input_shape pad_mode = 1 if h % 8 == 0 else 0 self.mode = mode # A or B or AB self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode, bn=bn) h_shape = (hidden_layer_sizes[2], h // 8, w // 8) h_channels = h_shape[0] * h_shape[1] * h_shape[2] self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) if shareAB: self.B = self.A print('shareAB') else: self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.decoder = _Decoder(in_channels=h_channels, out_channels=c,h_shape=h_shape, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode, add_conv=False, bn=bn) def forward(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) elif self.mode == 'B': x_r = self.decoder(y) else: x_r = self.decoder((y_rsr + y)/2.) return y, y_rsr, x_r def predict(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) x_rA = self.decoder(y_rsr) x_rB = self.decoder(y) x_rAB = self.decoder((y_rsr + y) / 2.) return y, y_rsr, (x_rA, x_rB, x_rAB) class RSRBoneTypeV4Linear(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn): super(RSRBoneTypeV4Linear, self).__init__() c = input_shape self.mode = mode # A or B or AB self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) #self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels)) self.inner_net = RSRBoneTypeV3Linear(hidden_layer_sizes[2], hidden_layer_sizes, z_channels, mode='A' , bn=bn, shareAB=True) self.decoder = _Decoder_Linear(in_channels=hidden_layer_sizes[2], out_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) def forward(self, x): y = self.encoder(x) #z = torch.matmul(y, self.A) #y_rsr = torch.matmul(z, self.B.t()) _, _, y_rsr = self.inner_net(y) if self.mode == 'A': x_r = self.decoder(y_rsr) elif self.mode == 'B': x_r = self.decoder(y) else: x_r = self.decoder((y_rsr + y)/2.) return y, y_rsr, x_r def predict(self, x): y = self.encoder(x) #z = torch.matmul(y, self.A) #y_rsr = torch.matmul(z, self.B.t()) _, _, y_rsr = self.inner_net(y) #print(y.shape, y_rsr.shape) x_rA = self.decoder(y_rsr) x_rB = self.decoder(y) x_rAB = self.decoder((y_rsr + y) / 2.) return y, y_rsr, (x_rA, x_rB, x_rAB) class RSRBoneTypeV5Linear(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB): super(RSRBoneTypeV5Linear, self).__init__() c = input_shape self.mode = mode # A or B or AB self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels)) if shareAB: self.B = self.A print('shareAB') else: self.B = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels)) self.decoder = _Decoder_Linear(in_channels=hidden_layer_sizes[2], out_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) def forward(self, x): y = self.encoder(x) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) elif self.mode == 'B': x_r = self.decoder(y) else: x_r = self.decoder((y_rsr + y)/2.) return y, y_rsr, x_r def predict(self, x): y = self.encoder(x) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) x_rA = self.decoder(y_rsr) x_rB = self.decoder(y) x_rAB = self.decoder((y_rsr + y) / 2.) return y, y_rsr, (x_rA, x_rB, x_rAB) class RSRBoneTypeV6(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB, flatten_size=128): super(RSRBoneTypeV6, self).__init__() c, h, w = input_shape pad_mode = 1 if h % 8 == 0 else 0 self.mode = mode # A or B or AB # flatten_size = 128 self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode, bn=bn, is_flatten=True, #nn.Tanh() flatten_size=flatten_size) h_shape = (hidden_layer_sizes[2], h // 8, w // 8) h_channels = flatten_size self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) if shareAB: self.B = self.A print('shareAB') else: self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.decoder = _Decoder(in_channels=h_channels, out_channels=c,h_shape=h_shape, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode, add_conv=False, bn=bn) def forward(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) elif self.mode == 'B': x_r = self.decoder(y) else: x_r = self.decoder((y_rsr + y)/2.) return y, y_rsr, x_r def predict(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) x_rA = self.decoder(y_rsr) x_rB = self.decoder(y) x_rAB = self.decoder((y_rsr + y) / 2.) return y, y_rsr, (x_rA, x_rB, x_rAB) class RSRBoneTypeV6Linear(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB, flatten_size=128): super(RSRBoneTypeV6Linear, self).__init__() c = input_shape self.mode = mode # A or B or AB self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn, is_flatten=True, flatten_size=flatten_size) h_channels = flatten_size self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) if shareAB: self.B = self.A print('shareAB') else: self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.decoder = _Decoder_Linear(in_channels=h_channels, out_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(), bn=bn) def forward(self, x): y = self.encoder(x) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) elif self.mode == 'B': x_r = self.decoder(y) else: x_r = self.decoder((y_rsr + y)/2.) return y, y_rsr, x_r def predict(self, x): y = self.encoder(x) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) x_rA = self.decoder(y_rsr) x_rB = self.decoder(y) x_rAB = self.decoder((y_rsr + y) / 2.) return y, y_rsr, (x_rA, x_rB, x_rAB) class RSRBoneTypeV7(nn.Module): def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB, flatten_size=128): super(RSRBoneTypeV7, self).__init__() c, h, w = input_shape pad_mode = 1 if h % 8 == 0 else 0 self.mode = mode # A or B or AB # flatten_size = 128 self.encoder = _Encoder_LSA(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode, bn=bn, is_flatten=True, flatten_size=flatten_size) h_shape = (hidden_layer_sizes[2], h // 8, w // 8) h_channels = flatten_size self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels)) if shareAB: self.B = self.A print('shareAB') else: self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels)) self.decoder = _Decoder_LSA(in_channels=h_channels, out_channels=c,h_shape=h_shape, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode, add_conv=False, bn=bn) def forward(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) if self.mode == 'A': x_r = self.decoder(y_rsr) elif self.mode == 'B': x_r = self.decoder(y) else: x_r = self.decoder((y_rsr + y)/2.) return y, y_rsr, x_r def predict(self, x): y = self.encoder(x) y = y.view(y.shape[0], -1) z = torch.matmul(y, self.A) y_rsr = torch.matmul(z, self.B.t()) x_rA = self.decoder(y_rsr) x_rB = self.decoder(y) x_rAB = self.decoder((y_rsr + y) / 2.) return y, y_rsr, (x_rA, x_rB, x_rAB)
39.829932
135
0.587498
4,071
29,275
3.95603
0.043724
0.08606
0.125179
0.032599
0.860354
0.847439
0.825147
0.814095
0.800807
0.77715
0
0.016533
0.295474
29,275
734
136
39.884196
0.764315
0.055337
0
0.756803
0
0
0.002213
0
0
0
0
0.002725
0
1
0.079932
false
0
0.010204
0.003401
0.171769
0.017007
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
9cc695804dab1321f666ad65a97e0c9fd628163d
2,601
py
Python
tests/testapp/test_middleware.py
matthiask/django-canonical-domain
31f9d0ba181d69694ad9114347240037a58d4251
[ "BSD-3-Clause" ]
2
2021-07-14T18:04:27.000Z
2021-10-03T12:06:37.000Z
tests/testapp/test_middleware.py
matthiask/django-canonical-domain
31f9d0ba181d69694ad9114347240037a58d4251
[ "BSD-3-Clause" ]
2
2018-12-23T19:42:39.000Z
2019-12-07T11:58:47.000Z
tests/testapp/test_middleware.py
matthiask/django-canonical-domain
31f9d0ba181d69694ad9114347240037a58d4251
[ "BSD-3-Clause" ]
2
2018-12-24T15:15:15.000Z
2019-10-23T18:31:12.000Z
from django.test import TestCase from django.test.utils import override_settings @override_settings(MIDDLEWARE=["canonical_domain.middleware.canonical_domain"]) class MiddlewareNotUsedTestCase(TestCase): def test_request(self): response = self.client.get("/") self.assertEqual(response.status_code, 200) self.assertEqual(response.content, b"Hello world") @override_settings( MIDDLEWARE=["canonical_domain.middleware.canonical_domain"], CANONICAL_DOMAIN="example.com", ) class CanonicalDomainTestCase(TestCase): def test_http_requests(self): response = self.client.get("/", HTTP_HOST="example.org") self.assertEqual(response.status_code, 301) self.assertEqual(response["Location"], "http://example.com/") response = self.client.get("/", HTTP_HOST="example.com") self.assertEqual(response.status_code, 200) self.assertEqual(response.content, b"Hello world") response = self.client.post("/", HTTP_HOST="example.org") self.assertEqual(response.status_code, 200) self.assertEqual(response.content, b"Hello world") def test_https_requests(self): response = self.client.get("/", HTTP_HOST="example.org", secure=True) self.assertEqual(response.status_code, 301) self.assertEqual(response["Location"], "https://example.com/") response = self.client.get("/", HTTP_HOST="example.com", secure=True) self.assertEqual(response.status_code, 200) self.assertEqual(response.content, b"Hello world") @override_settings( MIDDLEWARE=["canonical_domain.middleware.canonical_domain"], CANONICAL_DOMAIN="example.com", CANONICAL_DOMAIN_SECURE=True, ) class CanonicalDomainSecureTestCase(TestCase): def test_http_redirects(self): response = self.client.get("/") self.assertEqual(response.status_code, 301) self.assertEqual(response["Location"], "https://example.com/") response = self.client.get("/", HTTP_HOST="example.org") self.assertEqual(response.status_code, 301) self.assertEqual(response["Location"], "https://example.com/") def test_https_redirects(self): response = self.client.get("/", HTTP_HOST="example.org", secure=True) self.assertEqual(response.status_code, 301) self.assertEqual(response["Location"], "https://example.com/") def test_match(self): response = self.client.get("/", HTTP_HOST="example.com", secure=True) self.assertEqual(response.status_code, 200) self.assertEqual(response.content, b"Hello world")
40.015385
79
0.699346
295
2,601
6.023729
0.145763
0.168824
0.258863
0.163196
0.834553
0.834553
0.824423
0.824423
0.785031
0.774902
0
0.013755
0.161476
2,601
64
80
40.640625
0.801009
0
0
0.647059
0
0
0.171473
0.05075
0
0
0
0
0.392157
1
0.117647
false
0
0.039216
0
0.215686
0
0
0
0
null
0
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
9ccf8ace214259406b26caa3f82623121c2c65d4
390
py
Python
algorithm/__init__.py
lll6924/VMPF
7c5970d11ffb63c5231965d9ceb8f0df70292003
[ "MIT" ]
null
null
null
algorithm/__init__.py
lll6924/VMPF
7c5970d11ffb63c5231965d9ceb8f0df70292003
[ "MIT" ]
null
null
null
algorithm/__init__.py
lll6924/VMPF
7c5970d11ffb63c5231965d9ceb8f0df70292003
[ "MIT" ]
null
null
null
from .algorithm import * from .variational_marginal_particle_filter import * from .variational_sequential_monte_carlo import * from .vsmc_multiple_data import * from .vmpfbg_multiple_data import * from .variational_marginal_particle_filter_biased_gradients import * from .importance_weighted_variational_inference import * from .iwvi_multiple_data import * from .vmpf_multiple_data import *
43.333333
68
0.864103
49
390
6.428571
0.428571
0.253968
0.228571
0.209524
0.273016
0.273016
0
0
0
0
0
0
0.089744
390
9
69
43.333333
0.887324
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
0
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
9ce5300b1f5e3510bf4b01a696fbe1df944b3e92
10,727
py
Python
app/swagger_client/api/tournaments_api_api.py
defrecord/icfp-2020
68b7847e2c840028c81396b040c4ac1ab92e5e40
[ "MIT" ]
null
null
null
app/swagger_client/api/tournaments_api_api.py
defrecord/icfp-2020
68b7847e2c840028c81396b040c4ac1ab92e5e40
[ "MIT" ]
null
null
null
app/swagger_client/api/tournaments_api_api.py
defrecord/icfp-2020
68b7847e2c840028c81396b040c4ac1ab92e5e40
[ "MIT" ]
null
null
null
# coding: utf-8 """ ICFP Contest 2020 API See <a href='https://github.com/icfpcontest2020/aliens-proxy-protocol' target='_blank'>https://github.com/icfpcontest2020/aliens-proxy-protocol<a/> # noqa: E501 OpenAPI spec version: v1 Generated by: https://github.com/swagger-api/swagger-codegen.git """ from __future__ import absolute_import import re # noqa: F401 # python 2 and python 3 compatibility library import six from swagger_client.api_client import ApiClient class TournamentsApiApi(object): """NOTE: This class is auto generated by the swagger code generator program. Do not edit the class manually. Ref: https://github.com/swagger-api/swagger-codegen """ def __init__(self, api_client=None): if api_client is None: api_client = ApiClient() self.api_client = api_client def tournaments_current_get(self, **kwargs): # noqa: E501 """tournaments_current_get # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.tournaments_current_get(async_req=True) >>> result = thread.get() :param async_req bool :return: TournamentDto If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.tournaments_current_get_with_http_info(**kwargs) # noqa: E501 else: (data) = self.tournaments_current_get_with_http_info(**kwargs) # noqa: E501 return data def tournaments_current_get_with_http_info(self, **kwargs): # noqa: E501 """tournaments_current_get # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.tournaments_current_get_with_http_info(async_req=True) >>> result = thread.get() :param async_req bool :return: TournamentDto If the method is called asynchronously, returns the request thread. """ all_params = [] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method tournaments_current_get" % key ) params[key] = val del params['kwargs'] collection_formats = {} path_params = {} query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['text/plain', 'application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['ICFPC-ApiKey'] # noqa: E501 return self.api_client.call_api( '/tournaments/current', 'GET', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='TournamentDto', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats) def tournaments_get(self, **kwargs): # noqa: E501 """tournaments_get # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.tournaments_get(async_req=True) >>> result = thread.get() :param async_req bool :return: list[TournamentDto] If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.tournaments_get_with_http_info(**kwargs) # noqa: E501 else: (data) = self.tournaments_get_with_http_info(**kwargs) # noqa: E501 return data def tournaments_get_with_http_info(self, **kwargs): # noqa: E501 """tournaments_get # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.tournaments_get_with_http_info(async_req=True) >>> result = thread.get() :param async_req bool :return: list[TournamentDto] If the method is called asynchronously, returns the request thread. """ all_params = [] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method tournaments_get" % key ) params[key] = val del params['kwargs'] collection_formats = {} path_params = {} query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['text/plain', 'application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['ICFPC-ApiKey'] # noqa: E501 return self.api_client.call_api( '/tournaments', 'GET', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='list[TournamentDto]', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats) def tournaments_tournament_id_get(self, tournament_id, **kwargs): # noqa: E501 """tournaments_tournament_id_get # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.tournaments_tournament_id_get(tournament_id, async_req=True) >>> result = thread.get() :param async_req bool :param int tournament_id: (required) :return: TournamentDto If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.tournaments_tournament_id_get_with_http_info(tournament_id, **kwargs) # noqa: E501 else: (data) = self.tournaments_tournament_id_get_with_http_info(tournament_id, **kwargs) # noqa: E501 return data def tournaments_tournament_id_get_with_http_info(self, tournament_id, **kwargs): # noqa: E501 """tournaments_tournament_id_get # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.tournaments_tournament_id_get_with_http_info(tournament_id, async_req=True) >>> result = thread.get() :param async_req bool :param int tournament_id: (required) :return: TournamentDto If the method is called asynchronously, returns the request thread. """ all_params = ['tournament_id'] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method tournaments_tournament_id_get" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'tournament_id' is set if ('tournament_id' not in params or params['tournament_id'] is None): raise ValueError("Missing the required parameter `tournament_id` when calling `tournaments_tournament_id_get`") # noqa: E501 collection_formats = {} path_params = {} if 'tournament_id' in params: path_params['tournamentId'] = params['tournament_id'] # noqa: E501 query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['text/plain', 'application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['ICFPC-ApiKey'] # noqa: E501 return self.api_client.call_api( '/tournaments/{tournamentId}', 'GET', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='TournamentDto', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats)
36.117845
165
0.614151
1,199
10,727
5.209341
0.132611
0.042267
0.026897
0.034582
0.896094
0.877362
0.869837
0.832853
0.82757
0.820845
0
0.015608
0.295236
10,727
296
166
36.239865
0.810582
0.315559
0
0.76129
0
0
0.171757
0.045448
0
0
0
0
0
1
0.045161
false
0
0.025806
0
0.135484
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
143f7d84d91af973bef03d251020eafc8426aacc
37,144
py
Python
blotter/tests/test_holdings.py
matthewgilbert/blotter
067cc55bd4b55252f4d8de160703884ff01b9391
[ "MIT" ]
16
2017-06-06T10:11:02.000Z
2022-03-28T02:24:29.000Z
blotter/tests/test_holdings.py
altfund/blotter
067cc55bd4b55252f4d8de160703884ff01b9391
[ "MIT" ]
null
null
null
blotter/tests/test_holdings.py
altfund/blotter
067cc55bd4b55252f4d8de160703884ff01b9391
[ "MIT" ]
7
2017-06-23T15:51:35.000Z
2020-10-18T10:00:46.000Z
import unittest import array from blotter import blotter from pandas.util.testing import assert_series_equal, assert_frame_equal import pandas as pd import numpy as np PNL_COLS = ['pnl', 'closed pnl', 'open pnl'] class TestHoldings(unittest.TestCase): def setUp(self): pass def tearDown(self): pass def assertDictSeriesEqual(self, dict1, dict2): self.assertEqual(dict1.keys(), dict2.keys()) for key in dict1: try: assert_series_equal(dict1[key], dict2[key]) except AssertionError as e: e.args = (("\nfor key %s\n" % key) + e.args[0],) raise e def assertDictFrameEqual(self, dict1, dict2): self.assertEqual(dict1.keys(), dict2.keys()) for key in dict1: try: assert_frame_equal(dict1[key], dict2[key]) except AssertionError as e: e.args = (("\nfor key %s\n" % key) + e.args[0],) raise e def assertNestedDictSeriesEqual(self, dict1, dict2): self.assertEqual(dict1.keys(), dict2.keys()) for key in dict1: try: self.assertDictSeriesEqual(dict1[key], dict2[key]) except AssertionError as e: e.args = (("\nfor key %s\n" % key) + e.args[0],) raise e def assertNestedDictFrameEqual(self, dict1, dict2): self.assertEqual(dict1.keys(), dict2.keys()) for key in dict1: try: self.assertDictFrameEqual(dict1[key], dict2[key]) except AssertionError as e: e.args = (("\nfor key %s\n" % key) + e.args[0],) raise e def test_empty_asts(self): holder = blotter.Holdings() asts = holder.get_assets() self.assertEqual(asts, []) def test_empty_holdings(self): holder = blotter.Holdings() holdings = holder.get_holdings() holdings_hst = holder.get_holdings_history() self.assertEqual(holdings, {}) self.assertEqual(holdings_hst, {}) def test_timestamp_conversion(self): ts = pd.Timestamp('2016-12-01T10:00:00') ts2 = pd.Timestamp('2016-12-01T11:00:00') timestamps = array.array('d', [ts.timestamp(), ts2.timestamp()]) expected_ts = [ts, ts2] ret_ts = blotter.Holdings._to_timestamp(timestamps) self.assertEqual(expected_ts, ret_ts) def test_one_trade(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) asts = holder.get_assets() pos = holder.get_holdings() pos_hist = holder.get_holdings_history() self.assertEqual(asts, ['CLZ6']) self.assertDictSeriesEqual(pos, {"USD": pd.Series(1.0, index=['CLZ6'])}) exp_pos_hst = {"USD": {"CLZ6": pd.Series(1.0, index=[ts])}} self.assertNestedDictSeriesEqual(pos_hist, exp_pos_hst) def test_one_trade_with_mult(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = 1 mult = 2 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) asts = holder.get_assets() pos = holder.get_holdings() pos_hist = holder.get_holdings_history() self.assertEqual(asts, ['CLZ6']) self.assertDictSeriesEqual(pos, {"USD": pd.Series(2.0, index=['CLZ6'])}) exp_pos_hst = {"USD": {"CLZ6": pd.Series(2.0, index=[ts])}} self.assertNestedDictSeriesEqual(pos_hist, exp_pos_hst) def test_trade_out_of_order(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T09:00:00') def book_out_of_order(): holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) self.assertRaises(ValueError, book_out_of_order) def test_trade_0_quantity(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = 0 mult = 1 cmsion = 2.50 ccy = 'USD' def trade_0(): holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) self.assertRaises(ValueError, trade_0) def test_trade_mult_neg(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = 1 mult = -1 cmsion = 2.50 ccy = 'USD' def trade_bad(): holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) self.assertRaises(ValueError, trade_bad) def test_trade_mult_float(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = 1 mult = 1.5 cmsion = 2.50 ccy = 'USD' def trade_bad(): holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) self.assertRaises(ValueError, trade_bad) def test_trade_nan_quantity(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = np.NaN mult = 1 cmsion = 2.50 ccy = 'USD' def trade_nan(): holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) self.assertRaises(ValueError, trade_nan) def test_two_trades_same_ast(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') ts2 = pd.Timestamp('2016-12-01T11:00:00') instr = 'CLZ6' price = 53.36 price2 = 53.84 quantity = 1 quantity2 = 7 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) holder.record_trade(ts2, instr, price2, quantity2, mult, cmsion, ccy) asts = holder.get_assets() pos = holder.get_holdings() pos_hst = holder.get_holdings_history() self.assertEqual(asts, ['CLZ6']) self.assertDictSeriesEqual(pos, {"USD": pd.Series(8.0, index=['CLZ6'])}) exp_pos_hst = {"USD": {"CLZ6": pd.Series([1.0, 8.0], index=[ts, ts2])}} self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst) def test_closed_trade(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') ts2 = pd.Timestamp('2016-12-01T11:00:00') instr = 'CLZ6' price = 53.36 price2 = 53.84 quantity = 1 quantity2 = -1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) holder.record_trade(ts2, instr, price2, quantity2, mult, cmsion, ccy) asts = holder.get_assets() pos = holder.get_holdings() pos_hst = holder.get_holdings_history() self.assertEqual(asts, []) self.assertDictSeriesEqual(pos, {}) exp_pos_hst = {"USD": {"CLZ6": pd.Series([1.0, 0.0], index=[ts, ts2])}} self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst) def test_two_trades_two_asts_one_ccy(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') ts2 = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 instr2 = 'COZ6' price2 = 53.84 quantity = 1 quantity2 = 7 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) holder.record_trade(ts2, instr2, price2, quantity2, mult, cmsion, ccy) asts = holder.get_assets() pos = holder.get_holdings() pos_hst = holder.get_holdings_history() self.assertEqual(asts, ['CLZ6', 'COZ6']) s = pd.Series([1.0, 7.0], index=['CLZ6', 'COZ6']) self.assertDictSeriesEqual(pos, {"USD": s}) exp_pos_hst = {'USD': {'CLZ6': pd.Series([1.0], index=[ts]), 'COZ6': pd.Series([7.0], index=[ts2])}} self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst) def test_two_trades_two_asts_two_ccy(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') ts2 = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 instr2 = 'COZ6' price2 = 53.84 quantity = 1 quantity2 = 7 mult = 1 cmsion = 2.50 ccy = 'USD' ccy2 = 'CAD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) holder.record_trade(ts2, instr2, price2, quantity2, mult, cmsion, ccy2) asts = holder.get_assets() pos = holder.get_holdings() pos_hst = holder.get_holdings_history() self.assertEqual(asts, ['CLZ6', 'COZ6']) s1 = pd.Series([1.0], index=['CLZ6']) s2 = pd.Series([7.0], index=['COZ6']) self.assertDictSeriesEqual(pos, {"USD": s1, "CAD": s2}) exp_pos_hst = {'USD': {'CLZ6': pd.Series([1.0], index=[ts])}, 'CAD': {'COZ6': pd.Series([7.0], index=[ts2])}} self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst) def test_get_holdings_make_trade(self): # this test is necessary to test for a BufferError which arises when # assigning the output to get_holdings() and then making a trade. # Copying the data when creating a the pd.Series resolves holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 53.36 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) asts = holder.get_assets() # NOQA pos = holder.get_holdings() # NOQA pos_hst = holder.get_holdings_history() # NOQA holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) def test_get_no_cash(self): holder = blotter.Holdings() cashs = holder.get_cash_balances() assert_series_equal(cashs, pd.Series()) def test_get_USD_cash(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') holder.update_cash(ts, 'USD', 1000) cashs = holder.get_cash_balances() assert_series_equal(cashs, pd.Series(1000.0, index=['USD'])) def test_get_USD_and_CAD_cash(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') holder.update_cash(ts, 'USD', 1000) holder.update_cash(ts, 'CAD', 1000) cashs = holder.get_cash_balances() s = pd.Series([1000.0, 1000.0], index=['CAD', 'USD']) assert_series_equal(cashs, s) def test_get_USD_closed_cash(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') holder.update_cash(ts, 'USD', 1000) ts = pd.Timestamp('2016-12-02T10:00:00') holder.update_cash(ts, 'USD', -1000) cashs = holder.get_cash_balances() s = pd.Series() assert_series_equal(cashs, s) def test_get_USD_interest(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') holder.charge_interest(ts, 'USD', 1000) interest = holder._interest['USD'].amount[-1] self.assertEqual(interest, 1000) # instrument level PnL tests def test_instrument_pnl_no_trades(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr_pnls = holder.get_instrument_pnl(ts) self.assertDictEqual(instr_pnls, {}) def test_instrument_pnl_one_instrument_one_trade(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') pnls = holder.get_instrument_pnl(ts, pd.Series([56], index=[instr])) df_pnl = pd.concat([pd.Series([-1.5], index=[instr]), pd.Series([-2.5], index=[instr]), pd.Series([1.0], index=[instr])], axis=1) df_pnl.columns = PNL_COLS pnls_expected = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_expected) def test_instrument_pnl_one_instrument_one_trade_extra_prices(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') # add prices for irrelevant instruments, these should be ignored prices = pd.Series([56, 80, 0.80], index=[instr, 'COZ6', 'AUDUSD']) pnls = holder.get_instrument_pnl(ts, prices) df_pnl = pd.concat([pd.Series([-1.5], index=[instr]), pd.Series([-2.5], index=[instr]), pd.Series([1.0], index=[instr])], axis=1) df_pnl.columns = PNL_COLS pnls_expected = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_expected) def test_instrument_pnl_two_instrument_one_ccy(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' instr2 = 'COZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) holder.record_trade(ts, instr2, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([57, 56], index=[instr, instr2]) pnls = holder.get_instrument_pnl(ts, prices) df_pnl = pd.concat([pd.Series([-0.5, -1.5], index=[instr, instr2]), pd.Series([-2.5, -2.5], index=[instr, instr2]), pd.Series([2.0, 1.0], index=[instr, instr2])], axis=1) df_pnl.columns = PNL_COLS pnls_exp = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_exp) def test_instrument_pnl_two_instrument_two_ccy(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' instr2 = 'COZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' ccy2 = 'CAD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) holder.record_trade(ts, instr2, price, quantity, mult, cmsion, ccy2) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([57, 56], index=[instr, instr2]) pnls = holder.get_instrument_pnl(ts, prices) df_pnl1 = pd.concat([pd.Series([-1.5], index=[instr2]), pd.Series([-2.5], index=[instr2]), pd.Series([1.0], index=[instr2])], axis=1) df_pnl2 = pd.concat([pd.Series([-0.5], index=[instr]), pd.Series([-2.5], index=[instr]), pd.Series([2.0], index=[instr])], axis=1) df_pnl1.columns = PNL_COLS df_pnl2.columns = PNL_COLS pnls_exp = {'CAD': df_pnl1, 'USD': df_pnl2} self.assertDictFrameEqual(pnls, pnls_exp) def test_instrument_pnl_one_instrument_closed_no_price_needed(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') price = 65 quantity = -1 holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T12:00:00') # when there is no position in an instrument the price for that is # ignored so doesn't need to be passed pnls = holder.get_instrument_pnl(ts, pd.Series([])) df_pnl = pd.concat([pd.Series([5.0], index=[instr]), pd.Series([5.0], index=[instr]), pd.Series([0.0], index=[instr])], axis=1) df_pnl.columns = PNL_COLS pnls_exp = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_exp) def test_instrument_pnl_missing_price(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series() def no_price(): holder.get_instrument_pnl(ts, prices) self.assertRaises(KeyError, no_price) def test_one_instrument_pnl_one_nan_price(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([pd.np.NaN], index=[instr]) pnls = holder.get_instrument_pnl(ts, prices) df_pnl = pd.concat([pd.Series([pd.np.NaN], index=[instr]), pd.Series([pd.np.NaN], index=[instr]), pd.Series([pd.np.NaN], index=[instr])], axis=1) df_pnl.columns = PNL_COLS pnls_exp = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_exp) def test_two_instrument_pnl_one_nan_price(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr1 = 'CLZ6' instr2 = 'COZ6' price = 55 quantity = 1 mult = 1 cmsion = 0 ccy = 'USD' holder.record_trade(ts, instr1, price, quantity, mult, cmsion, ccy) holder.record_trade(ts, instr2, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([pd.np.NaN, price], index=[instr1, instr2]) pnls = holder.get_instrument_pnl(ts, prices) df_pnl1 = pd.concat([pd.Series([pd.np.NaN], index=[instr1]), pd.Series([pd.np.NaN], index=[instr1]), pd.Series([pd.np.NaN], index=[instr1])], axis=1) df_pnl2 = pd.concat([pd.Series([0.0], index=[instr2]), pd.Series([0.0], index=[instr2]), pd.Series([0.0], index=[instr2])], axis=1) df_pnl = pd.concat([df_pnl1, df_pnl2], axis=0) df_pnl.columns = PNL_COLS pnls_exp = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_exp) # historical instrument pnl def test_instrument_pnl_hist_no_trades(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') prices = pd.Series([]) holder.get_instrument_pnl(ts, prices) instr_pnls = holder.get_instrument_pnl_history() self.assertNestedDictFrameEqual(instr_pnls, {}) def test_instrument_pnl_hist_one_instrument(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([57], index=[instr]) holder.get_instrument_pnl(ts, prices) pnls = holder.get_instrument_pnl_history() df_pnl = pd.DataFrame([[-0.5, -2.5, 2.0]], index=[ts], columns=PNL_COLS) pnls_expected = {'USD': {'CLZ6': df_pnl}} self.assertNestedDictFrameEqual(pnls, pnls_expected) def test_instrument_pnl_hist_one_instrument_no_cache(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([57], index=[instr]) holder.get_instrument_pnl(ts, prices, cache=False) pnls = holder.get_instrument_pnl_history() pnls_expected = {} self.assertNestedDictFrameEqual(pnls, pnls_expected) def test_instrument_pnl_hist_two_instrument_one_ccy_diff_lengths(self): holder = blotter.Holdings() ts1 = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts1, instr, price, quantity, mult, cmsion, ccy) ts2 = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([56], index=[instr]) holder.get_instrument_pnl(ts2, prices) ts3 = pd.Timestamp('2016-12-01T12:00:00') instr2 = 'COZ6' price = 50 holder.record_trade(ts3, instr2, price, quantity, mult, cmsion, ccy) ts4 = pd.Timestamp('2016-12-01T13:00:00') prices = pd.Series([57, 49], index=[instr, instr2]) holder.get_instrument_pnl(ts4, prices) pnls = holder.get_instrument_pnl_history() pnl_cz = [[-1.5, -2.5, 1.0], [-0.5, -2.5, 2.0]] pnl_co = [[-3.5, -2.5, -1.0]] df_pnl_cz = pd.DataFrame(pnl_cz, index=[ts2, ts4], columns=PNL_COLS) df_pnl_co = pd.DataFrame(pnl_co, index=[ts4], columns=PNL_COLS) df_pnl_cz.columns = PNL_COLS df_pnl_co.columns = PNL_COLS pnls_exp = {'USD': {'CLZ6': df_pnl_cz, 'COZ6': df_pnl_co}} self.assertNestedDictFrameEqual(pnls, pnls_exp) def test_pnl_calc_pre_trade(self): holder = blotter.Holdings() ts1 = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts1, instr, price, quantity, mult, cmsion, ccy) ts2 = pd.Timestamp('2016-12-01T09:00:00') prices = pd.Series([56], index=[instr]) def pnl_out_of_order(): holder.get_instrument_pnl(ts2, prices) self.assertRaises(ValueError, pnl_out_of_order) def test_instrument_pnl_hist_two_instrument_two_ccy_two_marks(self): holder = blotter.Holdings() ts1 = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' instr2 = 'COZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' ccy2 = 'CAD' holder.record_trade(ts1, instr, price, quantity, mult, cmsion, ccy) holder.record_trade(ts1, instr2, price, quantity, mult, cmsion, ccy2) ts2 = pd.Timestamp('2016-12-01T10:30:00') prices = pd.Series([56, 57], index=[instr, instr2]) holder.get_instrument_pnl(ts2, prices) ts3 = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([57, 58], index=[instr, instr2]) holder.get_instrument_pnl(ts3, prices) pnls = holder.get_instrument_pnl_history() pnl_cz = [[-1.5, -2.5, 1.0], [-0.5, -2.5, 2.0]] pnl_co = [[-0.5, -2.5, 2.0], [0.5, -2.5, 3.0]] df_pnl_cz = pd.DataFrame(pnl_cz, index=[ts2, ts3], columns=PNL_COLS) df_pnl_co = pd.DataFrame(pnl_co, index=[ts2, ts3], columns=PNL_COLS) df_pnl_cz.columns = PNL_COLS df_pnl_co.columns = PNL_COLS pnls_exp = {'USD': {'CLZ6': df_pnl_cz}, 'CAD': {'COZ6': df_pnl_co}} self.assertNestedDictFrameEqual(pnls, pnls_exp) # historical aggregate level PnL tests def test_pnl_hist_no_trades(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') prices = pd.Series([]) holder.get_instrument_pnl(ts, prices) pnls = holder.get_pnl_history() self.assertNestedDictFrameEqual(pnls, {}) def test_pnl_hist_one_instrument(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([57], index=[instr]) holder.get_instrument_pnl(ts, prices) pnls = holder.get_pnl_history() df_pnl = pd.DataFrame([[-0.5, -2.5, 2.0]], index=[ts], columns=PNL_COLS) pnls_expected = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_expected) def test_pnl_hist_two_instrument(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr1 = 'CLZ6' price1 = 55 quantity1 = 1 mult = 1 instr2 = 'COZ6' price2 = 54 quantity2 = 2 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr1, price1, quantity1, mult, cmsion, ccy) holder.record_trade(ts, instr2, price2, quantity2, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') prices = pd.Series([57, 53], index=[instr1, instr2]) holder.get_instrument_pnl(ts, prices) pnls = holder.get_pnl_history() df_pnl = pd.DataFrame([[-5.0, -5.0, 0.0]], index=[ts], columns=PNL_COLS) pnls_expected = {'USD': df_pnl} self.assertDictFrameEqual(pnls, pnls_expected) def test_pnl_hist_two_instr_two_ccy_sweep_interest(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') holder.record_trade(ts, 'CLZ6', 55, 1, 1, 2.50, 'USD') holder.record_trade(ts, 'USDJPY', 110.00, 1000, 1, 0, 'JPY') ts_eod1 = pd.Timestamp('2016-12-01T16:00:00') prices = pd.Series([56, 111.00], index=['CLZ6', 'USDJPY']) holder.charge_interest(ts_eod1, 'USD', 0.1) holder.charge_interest(ts_eod1, 'JPY', -1) holder.get_instrument_pnl(ts_eod1, prices) ts_eod2 = pd.Timestamp('2016-12-02T16:00:00') holder.record_trade(ts_eod2, 'USDJPY', 112.0, -1000, 1, 0, 'JPY') usd = ((112 - 110) * 1000 - 1) / 112.0 jpy = -((112 - 110) * 1000 - 1) holder.sweep_pnl(ts_eod2, 'USD', usd, 'JPY', jpy) prices = pd.Series([57], index=['CLZ6']) holder.get_instrument_pnl(ts_eod2, prices) pnls = holder.get_pnl_history() closed = 0.1 - 2.5 + usd pnl_usd = pd.DataFrame([[-1.4, -2.4, 1.0], [2 + closed, closed, 2.0]], index=[ts_eod1, ts_eod2], columns=PNL_COLS) pnl_jpy = pd.DataFrame([[999.0, -1.0, 1000.0], [0.0, 0.0, 0.0]], index=[ts_eod1, ts_eod2], columns=PNL_COLS) pnls_expected = {'USD': pnl_usd, 'JPY': pnl_jpy} self.assertDictFrameEqual(pnls, pnls_expected) def test_pnl_hist_multi_sweep_same_time(self): holder = blotter.Holdings() ts_eod1 = pd.Timestamp('2016-12-01T16:00:00') holder.sweep_pnl(ts_eod1, 'USD', 1.0, 'JPY', -1.0) holder.sweep_pnl(ts_eod1, 'USD', 1.0, 'JPY', -1.0) ts_eod2 = pd.Timestamp('2016-12-02T16:00:00') holder.charge_interest(ts_eod2, 'USD', 0.1) pnl_history = holder.get_pnl_history() jpy = pd.DataFrame([[-2.0, -2.0, 0]], index=[ts_eod1], columns=PNL_COLS) usd = pd.DataFrame([[2.0, 2.0, 0.0], [2.1, 2.1, 0.0]], index=pd.DatetimeIndex([ts_eod1, ts_eod2]), columns=PNL_COLS) pnl_history_exp = {"JPY": jpy, "USD": usd} self.assertDictFrameEqual(pnl_history, pnl_history_exp) def test_pnl_hist_multi_interest_charge_same_time(self): holder = blotter.Holdings() ts_eod1 = pd.Timestamp('2016-12-01T16:00:00') holder.charge_interest(ts_eod1, 'USD', 1.0) holder.charge_interest(ts_eod1, 'USD', 5.0) ts_eod2 = pd.Timestamp('2016-12-02T16:00:00') holder.sweep_pnl(ts_eod2, 'USD', 1.0, 'JPY', -1) pnl_history = holder.get_pnl_history() jpy = pd.DataFrame([[-1, -1, 0]], index=[ts_eod2], columns=PNL_COLS) usd = pd.DataFrame([[6.0, 6.0, 0.0], [7.0, 7.0, 0.0]], index=pd.DatetimeIndex([ts_eod1, ts_eod2]), columns=PNL_COLS) pnl_history_exp = {"JPY": jpy, "USD": usd} self.assertDictFrameEqual(pnl_history, pnl_history_exp) # aggregate level PnL tests def test_pnl_no_trades(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') prices = pd.Series([]) pnl = holder.get_pnl(ts, prices) exp_pnl = pd.DataFrame([], columns=PNL_COLS, dtype='float64') assert_frame_equal(pnl, exp_pnl) def test_pnl_one_instrument_one_trade_one_ccy(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') pnl = holder.get_pnl(ts, pd.Series([56], index=[instr])) pnl_tot = pd.Series([-1.50], index=['USD']) pnl_closed = pd.Series([-2.50], index=['USD']) pnl_open = pd.Series([1.0], index=['USD']) exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1) exp_pnl.columns = PNL_COLS assert_frame_equal(pnl, exp_pnl) def test_pnl_one_instrument_all_closed_one_ccy_dummy_prices(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') price = 65 quantity = -1 holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T12:00:00') pnl = holder.get_pnl(ts, pd.Series()) pnl_tot = pd.Series([5.0], index=['USD']) pnl_closed = pd.Series([5.0], index=['USD']) pnl_open = pd.Series([0.0], index=['USD']) exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1) exp_pnl.columns = PNL_COLS assert_frame_equal(pnl, exp_pnl) def test_pnl_one_instrument_all_closed_one_ccy_no_prices(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 1 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') price = 65 quantity = -1 holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T12:00:00') pnl = holder.get_pnl(ts) pnl_tot = pd.Series([5.0], index=['USD']) pnl_closed = pd.Series([5.0], index=['USD']) pnl_open = pd.Series([0.0], index=['USD']) exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1) exp_pnl.columns = PNL_COLS assert_frame_equal(pnl, exp_pnl) def test_pnl_one_instrument_two_trades_one_ccy(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'CLZ6' price = 55 quantity = 5 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T11:00:00') price = 65 quantity = -1 holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T12:00:00') new_price = pd.Series([70], index=[instr]) pnl = holder.get_pnl(ts, new_price) pnl_tot = pd.Series([65.0], index=['USD']) pnl_closed = pd.Series([5.0], index=['USD']) pnl_open = pd.Series([60.0], index=['USD']) exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1) exp_pnl.columns = PNL_COLS assert_frame_equal(pnl, exp_pnl) def test_pnl_one_instrument_one_trade_with_interest_one_ccy(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') instr = 'AUDUSD' price = 0.80 quantity = 1000000 mult = 1 cmsion = 2.50 ccy = 'USD' holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy) ts = pd.Timestamp('2016-12-01T16:00:00') # accrue interest on long AUD position, pay on short USD position holder.charge_interest(ts, 'AUD', 55) holder.charge_interest(ts, 'USD', -15) new_price = pd.Series([0.81], index=[instr]) pnl = holder.get_pnl(ts, new_price) pnl_tot = pd.Series([55, 10000.0 - 2.50 - 15], index=['AUD', 'USD']) pnl_closed = pd.Series([55, -2.5 - 15], index=['AUD', 'USD']) pnl_open = pd.Series([0, 10000.0], index=['AUD', 'USD']) exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1) exp_pnl.columns = PNL_COLS assert_frame_equal(pnl, exp_pnl) def test_pnl_sweep(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') aud = 5000 usd = 5000 * 0.80 holder.sweep_pnl(ts, 'AUD', -aud, 'USD', usd) # pass dummy prices since never used since no trades pnl = holder.get_pnl(ts, pd.Series([])) pnl_tot = pd.Series([-5000.0, 4000.0], index=['AUD', 'USD']) pnl_closed = pd.Series([-5000.0, 4000.0], index=['AUD', 'USD']) pnl_open = pd.Series([0.0, 0.0], index=['AUD', 'USD']) exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1) exp_pnl.columns = PNL_COLS assert_frame_equal(pnl, exp_pnl) def test_pnl_sweep_out_of_order(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') aud = 5000 # just use filler exchange rate holder.sweep_pnl(ts, 'AUD', aud, 'USD', -aud) ts = pd.Timestamp('2016-12-01T09:00:00') def out_of_order_sweep(): holder.sweep_pnl(ts, 'AUD', aud, 'USD', -aud) self.assertRaises(ValueError, out_of_order_sweep) def test_pnl_sweep_closed_position(self): holder = blotter.Holdings() ts = pd.Timestamp('2016-12-01T10:00:00') holder.record_trade(ts, 'CLZ6', 55, 1, 1, 2.50, 'USD') holder.record_trade(ts, 'USDJPY', 110.00, 1000, 1, 0, 'JPY') ts_eod1 = pd.Timestamp('2016-12-01T16:00:00') prices = pd.Series([56, 111.00], index=['CLZ6', 'USDJPY']) holder.charge_interest(ts_eod1, 'USD', 0.1) holder.charge_interest(ts_eod1, 'JPY', -1) holder.get_instrument_pnl(ts_eod1, prices) ts_eod2 = pd.Timestamp('2016-12-02T16:00:00') holder.record_trade(ts_eod2, 'USDJPY', 112.0, -1000, 1, 0, 'JPY') usd = ((112 - 110) * 1000 - 1) / 112.0 jpy = -((112 - 110) * 1000 - 1) holder.sweep_pnl(ts_eod2, 'USD', usd, 'JPY', jpy) prices = pd.Series([57], index=['CLZ6']) pnls = holder.get_pnl(ts_eod2, prices) closed = 0.1 - 2.5 + usd pnls_exp = pd.DataFrame([[0.0, 0.0, 0.0], [2 + closed, closed, 2.0]], index=['JPY', 'USD'], columns=PNL_COLS) assert_frame_equal(pnls, pnls_exp)
36.559055
79
0.570913
4,894
37,144
4.169595
0.052513
0.03646
0.064687
0.073312
0.866265
0.84485
0.808684
0.780261
0.762521
0.732579
0
0.089741
0.289899
37,144
1,015
80
36.595074
0.683917
0.01688
0
0.70922
0
0
0.068548
0
0
0
0
0
0.093381
1
0.07565
false
0.002364
0.007092
0
0.083924
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
144f67abe7f08785d60a39cfcc49731cc748decd
8,955
py
Python
parameters.py
vfloeser/TumorDelivery
a48252c17b50397b1f51be21c0cf65ade87e9000
[ "Apache-2.0" ]
null
null
null
parameters.py
vfloeser/TumorDelivery
a48252c17b50397b1f51be21c0cf65ade87e9000
[ "Apache-2.0" ]
null
null
null
parameters.py
vfloeser/TumorDelivery
a48252c17b50397b1f51be21c0cf65ade87e9000
[ "Apache-2.0" ]
null
null
null
########################################################################################## # G E N E R A L I N F O # # # # This file defines the parameters used in the simulation provided by Stapleton2013 # # and Baxter 1989. Some of the parameters are variable. Their range will be given in # # a comment. # # # ########################################################################################## import numpy ########################################################################################## # S I M U L A T I O N ( v a r ) # ########################################################################################## #p_inf = -2 #(-1) - (-3) mm Hg tmin = 0.0 # start time (h) tmax = 1.0 # end time (h) Nr = 200 # space steps R = 1.0 # tumor radius al = 1 # fix alpha p_v = 10 # vascular pressure k = 3600*8.3e-6 # liposome clearance from plasma k2 = 8.32 # exponential decay of temperature (lambda) beta = 1.3e7 # drug loading coeff of DOX Vr = 1e-3 # relation of tissue to blood volume Cp = 0.5 # initial concentration ########################################################################################## # T U M O R T I S S U E # ########################################################################################## sigma = 0.19 # filtration reflection coeff f = 0.5 # fractional rate of liposome transport (theta_l) ########################################################################################## # S U P P L E M E N T A L I N F O # ########################################################################################## ########################################################################################## # M E 1 8 0 ########################################################################################## ##fc = 3600*25.1e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) ##K = 3600*0.35e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ###p_v = 5.0 # 10 nominal, vary between 5 and 30 ##p_imax = 4.7 ###R = 4.99 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*46.5e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*0.15e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 5.0 # 10 nominal, vary between 5 and 30 #p_imax = 5.0 ##R = 5.1 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*28.1e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*0.15e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 5.8 # 10 nominal, vary between 5 and 30 #p_imax = 5.7 ##R = 5.3 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*6.3e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*10.8e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 9.2 # 10 nominal, vary between 5 and 30 #p_imax = 3.5 ##R = 4.75 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*26.5e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*2.9e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 6.2 # 10 nominal, vary between 5 and 30 #p_imax = 4.6 ##R = 1.7 # 0.5 nominal, vary between 1.7 and 42 (not possible) ########################################################################################## # H 5 2 0 ########################################################################################## #fc = 3600*13.5e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*995e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 11.2 # 10 nominal, vary between 5 and 30 #p_imax = 1.9 ##R = 130 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*11.7e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*999e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 11.2 # 10 nominal, vary between 5 and 30 #p_imax = 2.3 ##R = 110 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*93.4e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*0.12e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 5.2 # 10 nominal, vary between 5 and 30 #p_imax = 4.7 ##R = 45.6 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*46.9e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*0.13e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 5.1 # 10 nominal, vary between 5 and 30 #p_imax = 4.1 ##R = 45.3 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*28.4e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*249e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 5.6 # 10 nominal, vary between 5 and 30 #p_imax = 1.7 ##R = 120 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*38.8e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*448e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 7.8 # 10 nominal, vary between 5 and 30 #p_imax = 3.0 ##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible) ########################################################################################## # V X 2 ########################################################################################## #fc = 3600*4405e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*651e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 42.4 # 10 nominal, vary between 5 and 30 #p_imax = 42.4 ##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible) # #fc = 3600*70.8e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*998e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 38.1 # 10 nominal, vary between 5 and 30 #p_imax = 36.6 #R = 42.5 # 0.5 nominal, vary between 1.7 and 42 # #fc = 3600*1.4e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*541e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 17.5 # 10 nominal, vary between 5 and 30 #p_imax = 4.56 ##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible) # #fc = 3600*1.1e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*988e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 26.3 # 10 nominal, vary between 5 and 30 #p_imax = 5.58 ##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible) # #fc = 3600*963e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) #K = 3600*133e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) ##p_v = 9.8 # 10 nominal, vary between 5 and 30 #p_imax = 9.81 ##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible) # fc = 3600*1088e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7) K = 3600*662e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7) #p_v = 26.8 # 10 nominal, vary between 5 and 30 p_imax = 19.8 #R = 0.78 # 0.5 nominal, vary between 1.7 and 42 ########################################################################################## V = R**3*4/3*numpy.pi #tumor volume ########################################################################################## # B A X T E R 1 9 8 9 I N F O # ########################################################################################## pi_v = 20 pi_i_n = 10 #normal tissue pi_i_t = 15 #tumor tissue sigma_t_n = 0.91 #normal tissue sigma_t_t = 0.82 #tumor tissue ########################################################################################## # S I M U L A T I O N ( d o n ' t c h a n g e ) # ########################################################################################## Nt = int(Nr/R*(tmax-tmin)) # time steps
54.93865
90
0.39665
1,345
8,955
2.606691
0.130855
0.213349
0.349116
0.184256
0.749287
0.749287
0.745864
0.745864
0.745864
0.729321
0
0.162097
0.307649
8,955
162
91
55.277778
0.403387
0.706086
0
0
0
0
0
0
0
0
0
0
0
1
0
false
0
0.041667
0
0.041667
0
0
0
0
null
1
1
1
0
1
1
1
1
1
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
9
14565a05d07c9c2de7a84243b819f200fe0c7718
38,732
py
Python
ocbind/system/aaa/__init__.py
SeanCondon/onos-config-demo
0789d397b46fd5cda512ae7fffe35e1a4bfdfdbe
[ "Apache-2.0" ]
1
2019-08-01T17:42:57.000Z
2019-08-01T17:42:57.000Z
ocbind/system/aaa/__init__.py
SeanCondon/onos-config-demo
0789d397b46fd5cda512ae7fffe35e1a4bfdfdbe
[ "Apache-2.0" ]
1
2021-05-26T16:38:04.000Z
2021-05-26T16:38:04.000Z
ocbind/system/aaa/__init__.py
SeanCondon/onos-config-demo
0789d397b46fd5cda512ae7fffe35e1a4bfdfdbe
[ "Apache-2.0" ]
4
2019-07-24T16:52:39.000Z
2021-12-03T02:08:13.000Z
# -*- coding: utf-8 -*- from operator import attrgetter import pyangbind.lib.xpathhelper as xpathhelper from pyangbind.lib.yangtypes import RestrictedPrecisionDecimalType from pyangbind.lib.yangtypes import RestrictedClassType from pyangbind.lib.yangtypes import TypedListType from pyangbind.lib.yangtypes import YANGBool from pyangbind.lib.yangtypes import YANGListType from pyangbind.lib.yangtypes import YANGDynClass from pyangbind.lib.yangtypes import ReferenceType from pyangbind.lib.base import PybindBase from collections import OrderedDict from decimal import Decimal from bitarray import bitarray import six # PY3 support of some PY2 keywords (needs improved) if six.PY3: import builtins as __builtin__ long = int elif six.PY2: import __builtin__ from . import authentication from . import authorization from . import accounting from . import server_groups class aaa(PybindBase): """ This class was auto-generated by the PythonClass plugin for PYANG from YANG module openconfig-system - based on the path /system/aaa. Each member element of the container is represented as a class variable - with a specific YANG type. YANG Description: Top-level container for AAA services """ __slots__ = ('_path_helper', '_extmethods', '__authentication','__authorization','__accounting','__server_groups',) _yang_name = 'aaa' _pybind_generated_by = 'container' def __init__(self, *args, **kwargs): helper = kwargs.pop("path_helper", None) if helper is False: self._path_helper = False elif helper is not None and isinstance(helper, xpathhelper.YANGPathHelper): self._path_helper = helper elif hasattr(self, "_parent"): helper = getattr(self._parent, "_path_helper", False) self._path_helper = helper else: self._path_helper = False self._extmethods = False self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) load = kwargs.pop("load", None) if args: if len(args) > 1: raise TypeError("cannot create a YANG container with >1 argument") all_attr = True for e in self._pyangbind_elements: if not hasattr(args[0], e): all_attr = False break if not all_attr: raise ValueError("Supplied object did not have the correct attributes") for e in self._pyangbind_elements: nobj = getattr(args[0], e) if nobj._changed() is False: continue setmethod = getattr(self, "_set_%s" % e) if load is None: setmethod(getattr(args[0], e)) else: setmethod(getattr(args[0], e), load=load) def _path(self): if hasattr(self, "_parent"): return self._parent._path()+[self._yang_name] else: return ['system', 'aaa'] def _get_authentication(self): """ Getter method for authentication, mapped from YANG variable /system/aaa/authentication (container) YANG Description: Top-level container for global authentication data """ return self.__authentication def _set_authentication(self, v, load=False): """ Setter method for authentication, mapped from YANG variable /system/aaa/authentication (container) If this variable is read-only (config: false) in the source YANG file, then _set_authentication is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_authentication() directly. YANG Description: Top-level container for global authentication data """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """authentication must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__authentication = t if hasattr(self, '_set'): self._set() def _unset_authentication(self): self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_authorization(self): """ Getter method for authorization, mapped from YANG variable /system/aaa/authorization (container) YANG Description: Top-level container for AAA authorization configuration and operational state data """ return self.__authorization def _set_authorization(self, v, load=False): """ Setter method for authorization, mapped from YANG variable /system/aaa/authorization (container) If this variable is read-only (config: false) in the source YANG file, then _set_authorization is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_authorization() directly. YANG Description: Top-level container for AAA authorization configuration and operational state data """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """authorization must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__authorization = t if hasattr(self, '_set'): self._set() def _unset_authorization(self): self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_accounting(self): """ Getter method for accounting, mapped from YANG variable /system/aaa/accounting (container) YANG Description: Top-level container for AAA accounting """ return self.__accounting def _set_accounting(self, v, load=False): """ Setter method for accounting, mapped from YANG variable /system/aaa/accounting (container) If this variable is read-only (config: false) in the source YANG file, then _set_accounting is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_accounting() directly. YANG Description: Top-level container for AAA accounting """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """accounting must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__accounting = t if hasattr(self, '_set'): self._set() def _unset_accounting(self): self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_server_groups(self): """ Getter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container) YANG Description: Enclosing container for AAA server groups """ return self.__server_groups def _set_server_groups(self, v, load=False): """ Setter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container) If this variable is read-only (config: false) in the source YANG file, then _set_server_groups is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_server_groups() directly. YANG Description: Enclosing container for AAA server groups """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """server_groups must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__server_groups = t if hasattr(self, '_set'): self._set() def _unset_server_groups(self): self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) authentication = __builtin__.property(_get_authentication, _set_authentication) authorization = __builtin__.property(_get_authorization, _set_authorization) accounting = __builtin__.property(_get_accounting, _set_accounting) server_groups = __builtin__.property(_get_server_groups, _set_server_groups) _pyangbind_elements = OrderedDict([('authentication', authentication), ('authorization', authorization), ('accounting', accounting), ('server_groups', server_groups), ]) from . import authentication from . import authorization from . import accounting from . import server_groups class aaa(PybindBase): """ This class was auto-generated by the PythonClass plugin for PYANG from YANG module openconfig-system - based on the path /system/aaa. Each member element of the container is represented as a class variable - with a specific YANG type. YANG Description: Top-level container for AAA services """ __slots__ = ('_path_helper', '_extmethods', '__authentication','__authorization','__accounting','__server_groups',) _yang_name = 'aaa' _pybind_generated_by = 'container' def __init__(self, *args, **kwargs): helper = kwargs.pop("path_helper", None) if helper is False: self._path_helper = False elif helper is not None and isinstance(helper, xpathhelper.YANGPathHelper): self._path_helper = helper elif hasattr(self, "_parent"): helper = getattr(self._parent, "_path_helper", False) self._path_helper = helper else: self._path_helper = False self._extmethods = False self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) load = kwargs.pop("load", None) if args: if len(args) > 1: raise TypeError("cannot create a YANG container with >1 argument") all_attr = True for e in self._pyangbind_elements: if not hasattr(args[0], e): all_attr = False break if not all_attr: raise ValueError("Supplied object did not have the correct attributes") for e in self._pyangbind_elements: nobj = getattr(args[0], e) if nobj._changed() is False: continue setmethod = getattr(self, "_set_%s" % e) if load is None: setmethod(getattr(args[0], e)) else: setmethod(getattr(args[0], e), load=load) def _path(self): if hasattr(self, "_parent"): return self._parent._path()+[self._yang_name] else: return ['system', 'aaa'] def _get_authentication(self): """ Getter method for authentication, mapped from YANG variable /system/aaa/authentication (container) YANG Description: Top-level container for global authentication data """ return self.__authentication def _set_authentication(self, v, load=False): """ Setter method for authentication, mapped from YANG variable /system/aaa/authentication (container) If this variable is read-only (config: false) in the source YANG file, then _set_authentication is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_authentication() directly. YANG Description: Top-level container for global authentication data """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """authentication must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__authentication = t if hasattr(self, '_set'): self._set() def _unset_authentication(self): self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_authorization(self): """ Getter method for authorization, mapped from YANG variable /system/aaa/authorization (container) YANG Description: Top-level container for AAA authorization configuration and operational state data """ return self.__authorization def _set_authorization(self, v, load=False): """ Setter method for authorization, mapped from YANG variable /system/aaa/authorization (container) If this variable is read-only (config: false) in the source YANG file, then _set_authorization is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_authorization() directly. YANG Description: Top-level container for AAA authorization configuration and operational state data """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """authorization must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__authorization = t if hasattr(self, '_set'): self._set() def _unset_authorization(self): self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_accounting(self): """ Getter method for accounting, mapped from YANG variable /system/aaa/accounting (container) YANG Description: Top-level container for AAA accounting """ return self.__accounting def _set_accounting(self, v, load=False): """ Setter method for accounting, mapped from YANG variable /system/aaa/accounting (container) If this variable is read-only (config: false) in the source YANG file, then _set_accounting is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_accounting() directly. YANG Description: Top-level container for AAA accounting """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """accounting must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__accounting = t if hasattr(self, '_set'): self._set() def _unset_accounting(self): self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_server_groups(self): """ Getter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container) YANG Description: Enclosing container for AAA server groups """ return self.__server_groups def _set_server_groups(self, v, load=False): """ Setter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container) If this variable is read-only (config: false) in the source YANG file, then _set_server_groups is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_server_groups() directly. YANG Description: Enclosing container for AAA server groups """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """server_groups must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__server_groups = t if hasattr(self, '_set'): self._set() def _unset_server_groups(self): self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) authentication = __builtin__.property(_get_authentication, _set_authentication) authorization = __builtin__.property(_get_authorization, _set_authorization) accounting = __builtin__.property(_get_accounting, _set_accounting) server_groups = __builtin__.property(_get_server_groups, _set_server_groups) _pyangbind_elements = OrderedDict([('authentication', authentication), ('authorization', authorization), ('accounting', accounting), ('server_groups', server_groups), ]) from . import authentication from . import authorization from . import accounting from . import server_groups class aaa(PybindBase): """ This class was auto-generated by the PythonClass plugin for PYANG from YANG module openconfig-system - based on the path /system/aaa. Each member element of the container is represented as a class variable - with a specific YANG type. YANG Description: Top-level container for AAA services """ __slots__ = ('_path_helper', '_extmethods', '__authentication','__authorization','__accounting','__server_groups',) _yang_name = 'aaa' _pybind_generated_by = 'container' def __init__(self, *args, **kwargs): helper = kwargs.pop("path_helper", None) if helper is False: self._path_helper = False elif helper is not None and isinstance(helper, xpathhelper.YANGPathHelper): self._path_helper = helper elif hasattr(self, "_parent"): helper = getattr(self._parent, "_path_helper", False) self._path_helper = helper else: self._path_helper = False self._extmethods = False self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) load = kwargs.pop("load", None) if args: if len(args) > 1: raise TypeError("cannot create a YANG container with >1 argument") all_attr = True for e in self._pyangbind_elements: if not hasattr(args[0], e): all_attr = False break if not all_attr: raise ValueError("Supplied object did not have the correct attributes") for e in self._pyangbind_elements: nobj = getattr(args[0], e) if nobj._changed() is False: continue setmethod = getattr(self, "_set_%s" % e) if load is None: setmethod(getattr(args[0], e)) else: setmethod(getattr(args[0], e), load=load) def _path(self): if hasattr(self, "_parent"): return self._parent._path()+[self._yang_name] else: return ['system', 'aaa'] def _get_authentication(self): """ Getter method for authentication, mapped from YANG variable /system/aaa/authentication (container) YANG Description: Top-level container for global authentication data """ return self.__authentication def _set_authentication(self, v, load=False): """ Setter method for authentication, mapped from YANG variable /system/aaa/authentication (container) If this variable is read-only (config: false) in the source YANG file, then _set_authentication is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_authentication() directly. YANG Description: Top-level container for global authentication data """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """authentication must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__authentication = t if hasattr(self, '_set'): self._set() def _unset_authentication(self): self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_authorization(self): """ Getter method for authorization, mapped from YANG variable /system/aaa/authorization (container) YANG Description: Top-level container for AAA authorization configuration and operational state data """ return self.__authorization def _set_authorization(self, v, load=False): """ Setter method for authorization, mapped from YANG variable /system/aaa/authorization (container) If this variable is read-only (config: false) in the source YANG file, then _set_authorization is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_authorization() directly. YANG Description: Top-level container for AAA authorization configuration and operational state data """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """authorization must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__authorization = t if hasattr(self, '_set'): self._set() def _unset_authorization(self): self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_accounting(self): """ Getter method for accounting, mapped from YANG variable /system/aaa/accounting (container) YANG Description: Top-level container for AAA accounting """ return self.__accounting def _set_accounting(self, v, load=False): """ Setter method for accounting, mapped from YANG variable /system/aaa/accounting (container) If this variable is read-only (config: false) in the source YANG file, then _set_accounting is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_accounting() directly. YANG Description: Top-level container for AAA accounting """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """accounting must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__accounting = t if hasattr(self, '_set'): self._set() def _unset_accounting(self): self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) def _get_server_groups(self): """ Getter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container) YANG Description: Enclosing container for AAA server groups """ return self.__server_groups def _set_server_groups(self, v, load=False): """ Setter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container) If this variable is read-only (config: false) in the source YANG file, then _set_server_groups is considered as a private method. Backends looking to populate this variable should do so via calling thisObj._set_server_groups() directly. YANG Description: Enclosing container for AAA server groups """ if hasattr(v, "_utype"): v = v._utype(v) try: t = YANGDynClass(v,base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) except (TypeError, ValueError): raise ValueError({ 'error-string': """server_groups must be of a type compatible with container""", 'defined-type': "container", 'generated-type': """YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""", }) self.__server_groups = t if hasattr(self, '_set'): self._set() def _unset_server_groups(self): self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True) authentication = __builtin__.property(_get_authentication, _set_authentication) authorization = __builtin__.property(_get_authorization, _set_authorization) accounting = __builtin__.property(_get_accounting, _set_accounting) server_groups = __builtin__.property(_get_server_groups, _set_server_groups) _pyangbind_elements = OrderedDict([('authentication', authentication), ('authorization', authorization), ('accounting', accounting), ('server_groups', server_groups), ])
55.890332
371
0.744217
4,732
38,732
5.858411
0.038039
0.042205
0.054542
0.041555
0.98503
0.977202
0.977202
0.977202
0.977202
0.977202
0
0.000694
0.144428
38,732
692
372
55.971098
0.835868
0.205334
0
0.952141
0
0.030227
0.302424
0.084051
0
0
0
0
0
1
0.105793
false
0
0.070529
0
0.289673
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
14802e9a3cbf64aba64231a34e17a33f6d26cae5
6,583
py
Python
tests/common/data_access/test_data/fake_violation_dao_data.py
pombredanne/forseti-security
68a9a88243460065e00b6c131b3d9abd0331fb37
[ "Apache-2.0" ]
1
2018-03-26T08:15:21.000Z
2018-03-26T08:15:21.000Z
tests/common/data_access/test_data/fake_violation_dao_data.py
pombredanne/forseti-security
68a9a88243460065e00b6c131b3d9abd0331fb37
[ "Apache-2.0" ]
null
null
null
tests/common/data_access/test_data/fake_violation_dao_data.py
pombredanne/forseti-security
68a9a88243460065e00b6c131b3d9abd0331fb37
[ "Apache-2.0" ]
null
null
null
# Copyright 2017 The Forseti Security Authors. All rights reserved. # # Licensed under the Apache License, Version 2.0 (the 'License'); # you may not use this file except in compliance with the License. # You may obtain a copy of the License at # # http://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, software # distributed under the License is distributed on an 'AS IS' BASIS, # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. # See the License for the specific language governing permissions and # limitations under the License. """Test data for violation dao tests.""" ROWS_MAP_BY_RESOURCE_1 = [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_1', 'rule_name': 'fake rule 1', 'rule_index': 0, 'violation_type': 'ADDED', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_2', 'rule_name': 'fake rule 2', 'rule_index': 0, 'violation_type': 'REMOVED', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_3', 'rule_name': 'fake rule 3', 'rule_index': 0, 'violation_type': 'BIGQUERY_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_4', 'rule_name': 'fake rule 4', 'rule_index': 0, 'violation_type': 'BUCKET_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_5', 'rule_name': 'fake rule 5', 'rule_index': 0, 'violation_type': 'CLOUD_SQL_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_6', 'rule_name': 'fake rule 6', 'rule_index': 0, 'violation_type': 'FORWARDING_RULE_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_7', 'rule_name': 'fake rule 7', 'rule_index': 0, 'violation_type': 'FIREWALL_BLACKLIST_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_8', 'rule_name': 'fake rule 8', 'rule_index': 0, 'violation_type': 'FIREWALL_MATCHES_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_9', 'rule_name': 'fake rule 9', 'rule_index': 0, 'violation_type': 'FIREWALL_REQUIRED_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_10', 'rule_name': 'fake rule 10', 'rule_index': 0, 'violation_type': 'FIREWALL_WHITELIST_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_11', 'rule_name': 'fake rule 11', 'rule_index': 0, 'violation_type': 'GROUP_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_12', 'rule_name': 'fake rule 12', 'rule_index': 0, 'violation_type': 'IAP_VIOLATION', 'violation_data': '{}'}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_13', 'rule_name': 'fake rule 13', 'rule_index': 0, 'violation_type': 'INSTANCE_NETWORK_INTERFACE_VIOLATION', 'violation_data': '{}'}, ] EXPECTED_MAP_BY_RESOURCE_1 = { 'policy_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_1', 'rule_name': 'fake rule 1', 'rule_index': 0, 'violation_type': 'ADDED', 'violation_data': {}}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_2', 'rule_name': 'fake rule 2', 'rule_index': 0, 'violation_type': 'REMOVED', 'violation_data': {}}, ], 'bigquery_acl_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_3', 'rule_name': 'fake rule 3', 'rule_index': 0, 'violation_type': 'BIGQUERY_VIOLATION', 'violation_data': {}}, ], 'buckets_acl_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_4', 'rule_name': 'fake rule 4', 'rule_index': 0, 'violation_type': 'BUCKET_VIOLATION', 'violation_data': {}}, ], 'cloudsql_acl_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_5', 'rule_name': 'fake rule 5', 'rule_index': 0, 'violation_type': 'CLOUD_SQL_VIOLATION', 'violation_data': {}}, ], 'forwarding_rule_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_6', 'rule_name': 'fake rule 6', 'rule_index': 0, 'violation_type': 'FORWARDING_RULE_VIOLATION', 'violation_data': {}}, ], 'firewall_rule_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_7', 'rule_name': 'fake rule 7', 'rule_index': 0, 'violation_type': 'FIREWALL_BLACKLIST_VIOLATION', 'violation_data': {}}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_8', 'rule_name': 'fake rule 8', 'rule_index': 0, 'violation_type': 'FIREWALL_MATCHES_VIOLATION', 'violation_data': {}}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_9', 'rule_name': 'fake rule 9', 'rule_index': 0, 'violation_type': 'FIREWALL_REQUIRED_VIOLATION', 'violation_data': {}}, {'resource_type': 'fake_type', 'resource_id': 'fake_id_10', 'rule_name': 'fake rule 10', 'rule_index': 0, 'violation_type': 'FIREWALL_WHITELIST_VIOLATION', 'violation_data': {}}, ], 'groups_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_11', 'rule_name': 'fake rule 11', 'rule_index': 0, 'violation_type': 'GROUP_VIOLATION', 'violation_data': {}}, ], 'iap_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_12', 'rule_name': 'fake rule 12', 'rule_index': 0, 'violation_type': 'IAP_VIOLATION', 'violation_data': {}}, ], 'instance_network_interface_violations': [ {'resource_type': 'fake_type', 'resource_id': 'fake_id_13', 'rule_name': 'fake rule 13', 'rule_index': 0, 'violation_type': 'INSTANCE_NETWORK_INTERFACE_VIOLATION', 'violation_data': {}}, ], }
33.586735
74
0.58727
746
6,583
4.785523
0.155496
0.087395
0.116527
0.145658
0.826611
0.826611
0.826611
0.826611
0.826611
0.815406
0
0.021078
0.250494
6,583
195
75
33.758974
0.702473
0.094486
0
0.926966
0
0
0.567222
0.083291
0
0
0
0
0
1
0
false
0
0
0
0
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
14a0fb09369093c93054c0a4224a668f0e9081f2
45
py
Python
tests/test_sample.py
elric97/CmyPlot
ce4490d3075b2c6cb47ad8eb5f35add2e2b66a3f
[ "MIT" ]
1
2021-11-06T18:30:48.000Z
2021-11-06T18:30:48.000Z
tests/test_sample.py
freakNewton/CmyPlot
bc940a219137e9252e37655afef7435d6f913178
[ "MIT" ]
23
2021-10-17T15:35:33.000Z
2021-11-15T06:31:25.000Z
tests/test_sample.py
freakNewton/CmyPlot
bc940a219137e9252e37655afef7435d6f913178
[ "MIT" ]
2
2021-10-20T21:07:38.000Z
2021-11-15T04:29:06.000Z
def test_sample(): assert 100 * 2 == 200
15
25
0.6
7
45
3.714286
1
0
0
0
0
0
0
0
0
0
0
0.212121
0.266667
45
2
26
22.5
0.575758
0
0
0
0
0
0
0
0
0
0
0
0.5
1
0.5
true
0
0
0
0.5
0
1
1
0
null
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
1
0
1
1
0
0
0
0
0
0
7
213d75fd325b2199ccf1f4a0fd06f2f442ac4524
24,413
py
Python
adler/tensorflow/unet.py
jleuschn/adler
a64e15e78a08e9d2c386c9b5fb2da55a6d0da877
[ "MIT" ]
7
2018-04-26T08:01:26.000Z
2020-05-20T19:45:05.000Z
adler/tensorflow/unet.py
jleuschn/adler
a64e15e78a08e9d2c386c9b5fb2da55a6d0da877
[ "MIT" ]
1
2019-11-28T14:37:37.000Z
2019-11-28T21:49:11.000Z
adler/tensorflow/unet.py
jleuschn/adler
a64e15e78a08e9d2c386c9b5fb2da55a6d0da877
[ "MIT" ]
5
2018-07-01T05:03:53.000Z
2019-11-28T21:36:02.000Z
import demandimport with demandimport.enabled(): import tensorflow as tf import numpy as np from adler.tensorflow.layers import (conv2d, conv2dtransp, conv1d, conv1dtransp, maxpool2d, maxpool1d) from adler.tensorflow.activation import prelu, leaky_relu __all__ = ('UNet', 'reference_unet', 'residual_unet') class UNet(object): def __init__(self, nin, nout, ndim=2, depth=4, layers_per_depth=2, features=32, feature_increase=2, residual=False, # else skip keep_prob=1.0, use_batch_norm=True, activation='prelu', is_training=True, name='unet'): self.nin = nin self.nout = nout self.ndim = ndim self.depth = depth self.layers_per_depth = layers_per_depth self.features = features self.feature_increase = feature_increase self.residual = residual self.keep_prob = keep_prob self.use_batch_norm = use_batch_norm self.activation = activation self.is_training = is_training self.name = str(name) with tf.name_scope('{}_variables'.format(self.name)): self.w_in, self.b_in = self.get_weight_bias(nin, features) self.w_down, self.b_down = [], [] self.w_up, self.b_up = [], [] for i in range(self.depth): features_i = self.features_at(i) self.w_down.append([]) self.b_down.append([]) self.w_up.append([]) self.b_up.append([]) for j in range(self.layers_per_depth): with tf.name_scope('down_{}_{}'.format(i, j)): if i > 0 and j == 0: w, b = self.get_weight_bias(self.features_at(i - 1), features_i) else: w, b = self.get_weight_bias(features_i, features_i) self.w_down[i].append(w) self.b_down[i].append(b) with tf.name_scope('up_{}_{}'.format(i, j)): if j == 0: w, b = self.get_weight_bias(self.features_at(i + 1), features_i, transpose=True) elif j == 1: w, b = self.get_weight_bias(features_i * 2, features_i) else: w, b = self.get_weight_bias(features_i, features_i) self.w_up[i].append(w) self.b_up[i].append(b) features_i = self.features_at(self.depth) self.w_coarse, self.b_coarse = [], [] for j in range(self.layers_per_depth): with tf.name_scope('coarse_{}'.format(j)): if j == 0: w, b = self.get_weight_bias(self.features_at(self.depth - 1), features_i) else: w, b = self.get_weight_bias(features_i, features_i) self.w_coarse.append(w) self.b_coarse.append(b) with tf.name_scope('out_{}'.format(j)): self.w_out, self.b_out = self.get_weight_bias(features, nout) def features_at(self, level): return int(self.features * self.feature_increase ** level) def get_weight_bias(self, nin, nout, transpose=False): if self.ndim == 1: # Xavier initialization # stddev = np.sqrt(2.6 / (3 * (nin + nout))) # He initialization stddev = np.sqrt(2.6 / (3 * nin)) if transpose: w = tf.Variable(tf.truncated_normal([3, nout, nin], stddev=stddev)) else: w = tf.Variable(tf.truncated_normal([3, nin, nout], stddev=stddev)) b = tf.Variable(tf.constant(0.0, shape=[1, 1, nout])) return w, b elif self.ndim == 2: # Xavier initialization # stddev = np.sqrt(2.6 / (3 * 3 * (nin + nout))) # He initialization stddev = np.sqrt(2.6 / (3 * 3 * nin)) if transpose: w = tf.Variable(tf.truncated_normal([3, 3, nout, nin], stddev=stddev)) else: w = tf.Variable(tf.truncated_normal([3, 3, nin, nout], stddev=stddev)) b = tf.Variable(tf.constant(0.0, shape=[1, 1, 1, nout])) return w, b else: raise ValueError('unknown ndim') def apply_activation(self, x): if self.activation == 'relu': return tf.nn.relu(x) elif self.activation == 'elu': return tf.nn.elu(x) elif self.activation == 'leaky_relu': return leaky_relu(x) elif self.activation == 'prelu': return prelu(x) else: raise RuntimeError('unknown activation') def apply_conv(self, x, w, b, stride=False, disable_batch_norm=False, disable_dropout=False, disable_activation=False): if stride: if self.ndim == 1: stride = 2 elif self.ndim == 2: stride = (2, 2) else: if self.ndim == 1: stride = 1 elif self.ndim == 2: stride = (1, 1) with tf.name_scope('apply_conv'): if self.ndim == 1: out = conv1d(x, w, stride=stride) + b elif self.ndim == 2: out = conv2d(x, w, stride=stride) + b if self.use_batch_norm and not disable_batch_norm: out = tf.contrib.layers.batch_norm(out, is_training=self.is_training) if self.keep_prob != 1.0 and not disable_dropout: out = tf.contrib.layers.dropout(out, keep_prob=self.keep_prob, is_training=self.is_training) if not disable_activation: out = self.apply_activation(out) return out def apply_convtransp(self, x, w, b, stride=False, out_shape=None, disable_batch_norm=False, disable_dropout=False, disable_activation=False): if stride: if self.ndim == 1: stride = 2 elif self.ndim == 2: stride = (2, 2) else: if self.ndim == 1: stride = 1 elif self.ndim == 2: stride = (1, 1) with tf.name_scope('apply_convtransp'): if self.ndim == 1: out = conv1dtransp(x, w, stride=stride, out_shape=out_shape) + b elif self.ndim == 2: out = conv2dtransp(x, w, stride=stride, out_shape=out_shape) + b if self.use_batch_norm and not disable_batch_norm: out = tf.contrib.layers.batch_norm(out, is_training=self.is_training) if self.keep_prob != 1.0 and not disable_dropout: out = tf.contrib.layers.dropout(out, keep_prob=self.keep_prob, is_training=self.is_training) if not disable_activation: out = self.apply_activation(out) return out def __call__(self, x): finals = [] with tf.name_scope('{}_call'.format(self.name)): with tf.name_scope('in'): current = self.apply_conv(x, self.w_in, self.b_in) # down layers for i in range(self.depth): with tf.name_scope('down_{}'.format(i)): for j in range(self.layers_per_depth - 1): current = self.apply_conv(current, self.w_down[i][j], self.b_down[i][j]) finals.append(current) current = self.apply_conv(current, self.w_down[i][-1], self.b_down[i][-1], stride=True) with tf.name_scope('coarse'): for j in range(self.layers_per_depth): current = self.apply_conv(current, self.w_coarse[j], self.b_coarse[j]) # up layers for i in reversed(range(self.depth)): with tf.name_scope('up_{}'.format(i)): with tf.name_scope('upsampling'): x_shape = tf.shape(finals[i]) W_shape = tf.shape(self.w_up[i][0]) if self.ndim == 1: out_shape = tf.stack([x_shape[0], x_shape[1], W_shape[1]]) elif self.ndim == 2: out_shape = tf.stack([x_shape[0], x_shape[1], x_shape[2], W_shape[2]]) current = self.apply_convtransp(current, self.w_up[i][0], self.b_up[i][0], stride=True, out_shape=out_shape) with tf.name_scope('skip_connection'): current = tf.concat([current, finals[i]], axis=-1) for j in range(1, self.layers_per_depth): current = self.apply_conv(current, self.w_up[i][j], self.b_up[i][j]) with tf.name_scope('out'): current = self.apply_conv(current, self.w_out, self.b_out, disable_dropout=True, disable_batch_norm=True, disable_activation=True) return current def reference_unet(x, nout, ndim=2, features=64, keep_prob=1.0, use_batch_norm=True, activation='relu', is_training=True, init='he', depth=4, name='unet_original'): """Reference implementation of the original U-net. https://arxiv.org/abs/1505.04597 """ assert depth >= 1 def get_weight_bias(nin, nout, transpose, size): if transpose: shape = [size] * ndim + [nout, nin] else: shape = [size] * ndim + [nin, nout] b_shape = [1] * (1 + ndim) + [nout] if init == 'xavier': stddev = np.sqrt(2.6 / (size ** ndim * (nin + nout))) elif init == 'he': stddev = np.sqrt(2.6 / (size ** ndim * nin)) w = tf.Variable(tf.truncated_normal(shape, stddev=stddev)) b = tf.Variable(tf.constant(0.0, shape=b_shape)) return w, b def apply_activation(x): if activation == 'relu': return tf.nn.relu(x) elif activation == 'elu': return tf.nn.elu(x) elif activation == 'leaky_relu': return leaky_relu(x) elif activation == 'prelu': return prelu(x) elif activation == 'softplus': return tf.nn.softplus(x) else: raise RuntimeError('unknown activation') def apply_conv(x, nout, stride=False, size=3, disable_batch_norm=False, disable_dropout=False, disable_activation=False): if stride: if ndim == 1: stride = 2 elif ndim == 2: stride = (2, 2) else: if ndim == 1: stride = 1 elif ndim == 2: stride = (1, 1) with tf.name_scope('apply_conv'): nin = int(x.get_shape()[-1]) w, b = get_weight_bias(nin, nout, transpose=False, size=size) if ndim == 1: out = conv1d(x, w, stride=stride) + b elif ndim == 2: out = conv2d(x, w, stride=stride) + b if use_batch_norm and not disable_batch_norm: out = tf.contrib.layers.batch_norm(out, is_training=is_training) if keep_prob != 1.0 and not disable_dropout: out = tf.contrib.layers.dropout(out, keep_prob=keep_prob, is_training=is_training) if not disable_activation: out = apply_activation(out) return out def apply_convtransp(x, nout, stride=True, out_shape=None, size=2, disable_batch_norm=False, disable_dropout=False, disable_activation=False): if stride: if ndim == 1: stride = 2 elif ndim == 2: stride = (2, 2) else: if ndim == 1: stride = 1 elif ndim == 2: stride = (1, 1) with tf.name_scope('apply_convtransp'): nin = int(x.get_shape()[-1]) w, b = get_weight_bias(nin, nout, transpose=True, size=size) if ndim == 1: out = conv1dtransp(x, w, stride=stride, out_shape=out_shape) + b elif ndim == 2: out = conv2dtransp(x, w, stride=stride, out_shape=out_shape) + b if use_batch_norm and not disable_batch_norm: out = tf.contrib.layers.batch_norm(out, is_training=is_training) if keep_prob != 1.0 and not disable_dropout: out = tf.contrib.layers.dropout(out, keep_prob=keep_prob, is_training=is_training) if not disable_activation: out = apply_activation(out) return out def apply_maxpool(x): if ndim == 1: return maxpool1d(x) else: return maxpool2d(x) finals = [] with tf.name_scope('{}_call'.format(name)): with tf.name_scope('in'): current = apply_conv(x, features) current = apply_conv(current, features) finals.append(current) for layer in range(depth - 1): with tf.name_scope('down_{}'.format(layer + 1)): features_layer = 2 ** (layer + 1) current = apply_maxpool(current) current = apply_conv(current, features_layer) current = apply_conv(current, features_layer) finals.append(current) with tf.name_scope('coarse'): current = apply_maxpool(current) current = apply_conv(current, features * 2 ** depth) current = apply_conv(current, features * 2 ** depth) for layer in reversed(range(depth - 1)): with tf.name_scope('up_{}'.format(layer + 1)): features_layer = 2 ** (layer + 1) skip = finals.pop() current = apply_convtransp(current, features_layer, out_shape=tf.shape(skip), disable_activation=True) current = tf.concat([current, skip], axis=-1) current = apply_conv(current, features_layer) current = apply_conv(current, features_layer) with tf.name_scope('out'): skip = finals.pop() current = apply_convtransp(current, features, out_shape=tf.shape(skip), disable_activation=True) current = tf.concat([current, skip], axis=-1) current = apply_conv(current, features) current = apply_conv(current, features) current = apply_conv(current, nout, size=1, disable_activation=True, disable_batch_norm=True, disable_dropout=True) return current def residual_unet(x, nout, ndim=2, features=64, keep_prob=1.0, use_batch_norm=True, activation='relu', is_training=True, init='he', name='unet_residual'): def get_weight_bias(nin, nout, transpose, size): if transpose: shape = [size] * ndim + [nout, nin] else: shape = [size] * ndim + [nin, nout] b_shape = [1] * (1 + ndim) + [nout] if init == 'xavier': stddev = np.sqrt(2.6 / (size ** ndim * (nin + nout))) elif init == 'he': stddev = np.sqrt(2.6 / (size ** ndim * nin)) w = tf.Variable(tf.truncated_normal(shape, stddev=stddev)) b = tf.Variable(tf.constant(0.0, shape=b_shape)) return w, b def apply_activation(x): if activation == 'relu': return tf.nn.relu(x) elif activation == 'elu': return tf.nn.elu(x) elif activation == 'leaky_relu': return leaky_relu(x) elif activation == 'prelu': return prelu(x) else: raise RuntimeError('unknown activation') def apply_conv(x, nout, stride=False, size=3, disable_batch_norm=False, disable_dropout=False, disable_activation=False): if stride: if ndim == 1: stride = 2 elif ndim == 2: stride = (2, 2) else: if ndim == 1: stride = 1 elif ndim == 2: stride = (1, 1) with tf.name_scope('apply_conv'): nin = int(x.get_shape()[-1]) w, b = get_weight_bias(nin, nout, transpose=False, size=size) if ndim == 1: out = conv1d(x, w, stride=stride) + b elif ndim == 2: out = conv2d(x, w, stride=stride) + b if use_batch_norm and not disable_batch_norm: out = tf.contrib.layers.batch_norm(out, is_training=is_training) if keep_prob != 1.0 and not disable_dropout: out = tf.contrib.layers.dropout(out, keep_prob=keep_prob, is_training=is_training) if not disable_activation: out = apply_activation(out) return out def apply_convtransp(x, nout, stride=True, out_shape=None, size=2, disable_batch_norm=False, disable_dropout=False, disable_activation=False): if stride: if ndim == 1: stride = 2 elif ndim == 2: stride = (2, 2) else: if ndim == 1: stride = 1 elif ndim == 2: stride = (1, 1) with tf.name_scope('apply_convtransp'): nin = int(x.get_shape()[-1]) w, b = get_weight_bias(nin, nout, transpose=True, size=size) if ndim == 1: out = conv1dtransp(x, w, stride=stride, out_shape=out_shape) + b elif ndim == 2: out = conv2dtransp(x, w, stride=stride, out_shape=out_shape) + b if use_batch_norm and not disable_batch_norm: out = tf.contrib.layers.batch_norm(out, is_training=is_training) if keep_prob != 1.0 and not disable_dropout: out = tf.contrib.layers.dropout(out, keep_prob=keep_prob, is_training=is_training) if not disable_activation: out = apply_activation(out) return out def apply_maxpool(x): if ndim == 1: return maxpool1d(x) else: return maxpool2d(x) def residual_unit(x, features): with tf.name_scope('residual_unit'): nout = int(x.get_shape()[-1]) dx = apply_conv(x, features) dx = apply_conv(dx, nout, size=1, disable_activation=True) return x + dx residual_down = False conv_down = False finals = [] with tf.name_scope('{}_call'.format(name)): with tf.name_scope('in'): current = apply_conv(x, features, size=7) if residual_down: current = residual_unit(current, features) elif conv_down: current = apply_conv(current, features, size=1, disable_activation=True) finals.append(current) with tf.name_scope('down_1'): current = apply_maxpool(current) if residual_down: for i in range(2): current = residual_unit(current, features) elif conv_down: current = apply_conv(current, features, size=1, disable_activation=True) finals.append(current) with tf.name_scope('down_2'): current = apply_maxpool(current) if residual_down: for i in range(4): current = residual_unit(current, features) elif conv_down: current = apply_conv(current, features, size=1, disable_activation=True) finals.append(current) with tf.name_scope('down_3'): current = apply_maxpool(current) if residual_down: for i in range(8): current = residual_unit(current, features) elif conv_down: current = apply_conv(current, features, size=1, disable_activation=True) finals.append(current) with tf.name_scope('coarse'): current = apply_maxpool(current) for i in range(16): current = residual_unit(current, features) with tf.name_scope('up_3'): skip = finals.pop() current = apply_convtransp(current, features, out_shape=tf.shape(skip), disable_activation=True) current = tf.concat([current, skip], axis=-1) for i in range(8): current = residual_unit(current, features) with tf.name_scope('up_2'): skip = finals.pop() current = apply_convtransp(current, features, out_shape=tf.shape(skip), disable_activation=True) current = current + skip for i in range(4): current = residual_unit(current, features) with tf.name_scope('up_1'): skip = finals.pop() current = apply_convtransp(current, features, out_shape=tf.shape(skip), disable_activation=True) current = current + skip for i in range(2): current = residual_unit(current, features) with tf.name_scope('out'): skip = finals.pop() current = apply_convtransp(current, features, out_shape=tf.shape(skip), disable_activation=True) current = current + skip current = residual_unit(current, features) current = apply_conv(current, nout, size=1, disable_activation=True, disable_batch_norm=True, disable_dropout=True) return current
35.587464
132
0.476263
2,643
24,413
4.218691
0.054484
0.019372
0.032287
0.04843
0.834798
0.806278
0.781435
0.761166
0.729596
0.703857
0
0.018145
0.426617
24,413
685
133
35.639416
0.778397
0.011633
0
0.757463
0
0
0.020866
0
0
0
0
0
0.001866
1
0.037313
false
0
0.011194
0.001866
0.110075
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
dcf10ff1dcbc743d67dce59f5ea10f87a74fbf0b
10,191
py
Python
experiments/04-speaker-recognition/Speaker_Verification_Code/datasets.py
TongtongSong/speech_experiments
8f69766d7c262c62dd4d36696a46b64c58570eda
[ "Apache-2.0" ]
2
2022-02-10T02:00:58.000Z
2022-02-10T02:01:19.000Z
experiments/04-speaker-recognition/Speaker_Verification_Code/datasets.py
YuTian-coder/speech_experiments
8f69766d7c262c62dd4d36696a46b64c58570eda
[ "Apache-2.0" ]
null
null
null
experiments/04-speaker-recognition/Speaker_Verification_Code/datasets.py
YuTian-coder/speech_experiments
8f69766d7c262c62dd4d36696a46b64c58570eda
[ "Apache-2.0" ]
2
2021-12-27T13:45:30.000Z
2021-12-28T01:22:25.000Z
from random import sample import soundfile as sf from python_speech_features import mfcc, fbank, logfbank, delta from librosa import stft, magphase from torch.utils.data import Dataset import torch import random import numpy as np import os # from torch.utils.data import DataLoader class SpkTrainDataset(Dataset): def __init__(self, opts): self.opts = opts self.TRAIN_MANIFEAT = opts["train_manifest"] self.feat_type = opts['feat_type'] self.root = opts['root'] self.rate = opts['rate'] self.data_feat, self.data_label, self.speaker_dict = self._load_dataset() self.count = len(self.data_feat) def _load_dataset(self): with open(self.TRAIN_MANIFEAT, 'r') as f: all_data = f.read() all_data = all_data.split('\n') data_feat = [] data_label = [] speaker_dict = {} speaker_id = 0 for data in all_data: if data == '': continue speaker, path = data.split(' ')[0], data.split(' ')[1] if speaker not in speaker_dict.keys(): speaker_dict[speaker] = speaker_id speaker_id += 1 data_label.append(speaker_dict[speaker]) source_feat, _ = self._load_audio(os.path.join(self.root, path)) if source_feat[0] == None: print('a') feat = self._extract_feature(source_feat) feat = feat.astype(np.float32) feat = np.array(feat) feat = self._fix_length(feat) data_feat.append(feat) data_feat = np.array(data_feat) data_label = np.array(data_label) return data_feat, data_label, speaker_dict def _fix_length(self, feat): out_feat = feat while out_feat.shape[0] < self.opts['max_length']: out_feat = np.concatenate((out_feat, feat), axis=0) feat_len = out_feat.shape[0] start = random.randint(a=0, b=feat_len-self.opts['max_length']) end = start + self.opts['max_length'] out_feat = out_feat[start:end, :] return out_feat def _load_audio(self, path): y, sr = sf.read(path) return y, sr def _normalize(self, feat): return (feat - feat.mean(axis = 0)) / (feat.std(axis = 0) + 2e-12) def _delta(self, feat, order = 2): if order == 2: feat_d1 = delta(feat, N = 1) feat_d2 = delta(feat, N = 2) feat = np.hstack([feat, feat_d1, feat_d2]) elif order == 1: feat_d1 = delta(feat, N = 1) feat = np.hstack([feat, feat_d1]) return feat def _extract_feature(self, data): if self.feat_type == 'mfcc': feat = mfcc(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], numcep = self.opts['num_cep']) elif self.feat_type == 'fbank': feat, _ = fbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin']) elif self.feat_type == 'logfbank': feat = logfbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin']) elif self.feat_type == 'stft': feat = stft(data, n_fft = self.opts['n_fft'], hop_length = int(self.rate * self.opts['win_shift']), win_length = int(self.rate * self.opts['win_len'])) feat, _ = magphase(feat) feat = np.log1p(feat) feat = feat.transpose(1,0) else: raise NotImplementedError("Other features are not implemented!") if self.opts['normalize']: feat = self._normalize(feat) if self.opts['delta']: feat = self._delta(feat, order = 2) return feat def collate_fn(self, batch): feats = [] labels = [] for id in batch: feat = self.data_feat[id] label = self.data_label[id] feats.append(feat) labels.append(label) feats = np.array(feats).astype(np.float32) labels = np.array(labels).astype(np.int64) return torch.from_numpy(feats).transpose_(1, 2), torch.from_numpy(labels) # def collate_fn(self, batch): # frame = random.randint(self.lower_frame_num, self.higher_frame_num) # random select a frame number in uniform distribution # duration = (frame - 1) * self.opts['win_shift'] + self.opts['win_len'] # duration in time of one training speech segment # samples_num = int(duration * self.rate) # duration in sample point of one training speech segment # feats = [] # for sid in batch: # speaker = self.dataset[sid] # y = [] # n_samples = 0 # while n_samples < samples_num: # aid = random.randrange(0, len(speaker)) # audio = speaker[aid] # t, sr = audio[1], audio[2] # samples_len = int(t * sr) # start = int(random.uniform(0, t) * sr) # random select start point of speech # _y, _ = self._load_audio(audio[0], start = start, stop = samples_len) # read speech data from start point to the end # if _y is not None: # y.append(_y) # n_samples += len(_y) # y = np.hstack(y)[:samples_num] # feat = self._extract_feature(y) # feats.append(feat) # feats = np.array(feats).astype(np.float32) # labels = np.array(batch).astype(np.int64) # return torch.from_numpy(feats).transpose_(1, 2), torch.from_numpy(labels) def __len__(self): return self.count def __getitem__(self, idx): idx = idx % self.count return idx class SpkTestDataset(Dataset): def __init__(self, opts): self.opts = opts self.TEST_MANIFEAT = opts["test_manifest"] self.feat_type = opts['feat_type'] self.root = opts['root'] self.rate = opts['rate'] self.data_feat, self.data_label, self.speaker_dict = self._load_dataset() self.count = len(self.data_feat) def _load_dataset(self): with open(self.TEST_MANIFEAT, 'r') as f: all_data = f.read() all_data = all_data.split('\n') data_feat = [] data_label = [] speaker_dict = {} speaker_id = 0 for data in all_data: if data == '': continue speaker, path = data.split(' ')[0], data.split(' ')[1] if speaker not in speaker_dict.keys(): speaker_dict[speaker] = speaker_id speaker_id += 1 data_label.append(path) source_feat, _ = self._load_audio(os.path.join(self.root, path)) if source_feat[0] == None: print('a') feat = self._extract_feature(source_feat) feat = feat.astype(np.float32) feat = np.array(feat) feat = self._fix_length(feat) data_feat.append(feat) data_feat = np.array(data_feat) data_label = np.array(data_label) return data_feat, data_label, speaker_dict def _fix_length(self, feat): out_feat = feat while out_feat.shape[0] < self.opts['max_length']: out_feat = np.concatenate((out_feat, feat), axis=0) feat_len = out_feat.shape[0] start = random.randint(a=0, b=feat_len-self.opts['max_length']) end = start + self.opts['max_length'] out_feat = out_feat[start:end, :] return out_feat def _load_audio(self, path): y, sr = sf.read(path) return y, sr def _normalize(self, feat): return (feat - feat.mean(axis = 0)) / (feat.std(axis = 0) + 2e-12) def _delta(self, feat, order = 2): if order == 2: feat_d1 = delta(feat, N = 1) feat_d2 = delta(feat, N = 2) feat = np.hstack([feat, feat_d1, feat_d2]) elif order == 1: feat_d1 = delta(feat, N = 1) feat = np.hstack([feat, feat_d1]) return feat def _extract_feature(self, data): if self.feat_type == 'mfcc': feat = mfcc(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], numcep = self.opts['num_cep']) elif self.feat_type == 'fbank': feat, _ = fbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin']) elif self.feat_type == 'logfbank': feat = logfbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin']) elif self.feat_type == 'stft': feat = stft(data, n_fft = self.opts['n_fft'], hop_length = int(self.rate * self.opts['win_shift']), win_length = int(self.rate * self.opts['win_len'])) feat, _ = magphase(feat) feat = np.log1p(feat) feat = feat.transpose(1,0) else: raise NotImplementedError("Other features are not implemented!") if self.opts['normalize']: feat = self._normalize(feat) if self.opts['delta']: feat = self._delta(feat, order = 2) return feat def collate_fn(self, batch): feats = [] labels = [] for id in batch: feat = self.data_feat[id] label = self.data_label[id] feats.append(feat) labels.append(label) feats = np.array(feats).astype(np.float32) labels = np.array(labels) return torch.from_numpy(feats).transpose_(1, 2), labels def __len__(self): return self.count def __getitem__(self, idx): idx = idx % self.count return idx # import yaml # f = open('config.yaml', 'r') # opts = yaml.load(f)['data'] # f.close() # trainset = SpkTrainDataset(opts) # train_loader = DataLoader(trainset, batch_size = 128, shuffle = True, collate_fn = trainset.collate_fn) # for feat, label in enumerate(train_loader): # pass
36.526882
163
0.568345
1,320
10,191
4.192424
0.124242
0.057824
0.035779
0.022768
0.806288
0.784966
0.784966
0.784966
0.77846
0.764727
0
0.01273
0.306251
10,191
279
164
36.526882
0.770014
0.155922
0
0.893401
0
0
0.052902
0
0
0
0
0
0
1
0.101523
false
0
0.045685
0.020305
0.248731
0.010152
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
3713c83004baaa0d61413fe5f5c5205589060bd7
2,498
py
Python
searching/tree/advance_views.py
EashanKaushik/Data-Structures
e5bd391e029cb47e650d5665647ff57590b9b343
[ "MIT" ]
null
null
null
searching/tree/advance_views.py
EashanKaushik/Data-Structures
e5bd391e029cb47e650d5665647ff57590b9b343
[ "MIT" ]
null
null
null
searching/tree/advance_views.py
EashanKaushik/Data-Structures
e5bd391e029cb47e650d5665647ff57590b9b343
[ "MIT" ]
null
null
null
from node import make_tree def left_view(root, value): queue = list() queue.append(root) size = len(queue) while len(queue) > 0: curr_node = queue.pop(0) size -= 1 if curr_node.right: queue.append(curr_node.right) if curr_node.left: queue.append(curr_node.left) if size == 0: if curr_node.data == value: return True size = len(queue) def right_view(root, value): queue = list() queue.append(root) size = len(queue) while len(queue) > 0: curr_node = queue.pop(0) size-= 1 if curr_node.left: queue.append(curr_node.left) if curr_node.right: queue.append(curr_node.right) if size == 0: if curr_node.data == value: return True size = len(queue) def top_view(root, value): queue = list() vertical_node_value = dict() queue.append(root) queue.append(0) while len(queue) > 0: curr_node = queue.pop(0) curr_val = queue.pop(0) if curr_node.left: queue.append(curr_node.left) queue.append(curr_val - 1) if curr_node.right: queue.append(curr_node.right) queue.append(curr_val + 1) if curr_val not in vertical_node_value: if curr_node.data == value: return True vertical_node_value[curr_val] = curr_node.data # for node in sorted(vertical_node_value): # print(vertical_node_value[node]) def buttom_view(root, value): queue = list() vertical_node_value = dict() queue.append(root) queue.append(0) while len(queue) > 0: curr_node = queue.pop(0) curr_val = queue.pop(0) if curr_node.left: queue.append(curr_node.left) queue.append(curr_val - 1) if curr_node.right: queue.append(curr_node.right) queue.append(curr_val + 1) if curr_val not in vertical_node_value: vertical_node_value[curr_val] = curr_node.data elif curr_val in vertical_node_value: if value == curr_node.data: return True vertical_node_value[curr_val] = curr_node.data # for value in sorted(vertical_node_value): # print(vertical_node_value[value]) if __name__ == '__main__': root = make_tree() print(buttom_view(root, 4))
21.912281
58
0.571657
329
2,498
4.103343
0.118541
0.16
0.133333
0.112593
0.900741
0.885185
0.885185
0.871111
0.844444
0.774815
0
0.01259
0.332266
2,498
113
59
22.106195
0.796763
0.06285
0
0.861111
0
0
0.003425
0
0
0
0
0
0
1
0.055556
false
0
0.013889
0
0.125
0.013889
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
2eb4b02180ec9a772f6fd5971b846dd028dfc2b8
13,800
py
Python
testwithBoundaryDetection.py
JHMeusener/detectron2-ResNeSt
6abab6fb9496a528f6aa2d4e1e27f3e7ceb42685
[ "Apache-2.0" ]
null
null
null
testwithBoundaryDetection.py
JHMeusener/detectron2-ResNeSt
6abab6fb9496a528f6aa2d4e1e27f3e7ceb42685
[ "Apache-2.0" ]
null
null
null
testwithBoundaryDetection.py
JHMeusener/detectron2-ResNeSt
6abab6fb9496a528f6aa2d4e1e27f3e7ceb42685
[ "Apache-2.0" ]
null
null
null
from detectron2.structures import BoxMode # Some basic setup: # Setup detectron2 logger import detectron2 # import some common libraries import numpy as np import os, json, cv2, random # import some common detectron2 utilities from detectron2 import model_zoo from detectron2.engine import DefaultPredictor from detectron2.config import get_cfg from detectron2.utils.visualizer import Visualizer from detectron2.data import MetadataCatalog, DatasetCatalog from detectron2.data.datasets import register_coco_instances from detectron2.data import MetadataCatalog, DatasetCatalog from detectron2.data.datasets import load_coco_json from detectron2.config import get_cfg from detectron2.engine import DefaultTrainer from detectron2.data import DatasetMapper from PIL import Image import yaml from utils import utils as utls from models.cobnet import CobNet from utils.loss import BalancedBCE import math import copy import logging import numpy as np from typing import List, Optional, Union import torch from detectron2.config import configurable from detectron2.data import build_detection_train_loader,build_detection_test_loader from detectron2.data import detection_utils as utils from detectron2.data import transforms as T import logging import numpy as np from typing import Optional, Tuple import torch from torch import nn from detectron2.config import configurable from detectron2.structures import ImageList from detectron2.utils.events import get_event_storage from detectron2.utils.logger import log_first_n from detectron2.modeling.backbone import Backbone, build_backbone from detectron2.modeling.postprocessing import detector_postprocess from detectron2.modeling.proposal_generator import build_proposal_generator from detectron2.modeling.roi_heads import build_roi_heads from detectron2.modeling.meta_arch.build import META_ARCH_REGISTRY from detectron2.modeling.meta_arch import GeneralizedRCNN, ProposalNetwork import importlib from detectron2.layers import ShapeSpec import sys import time from evaluation_directEdge import RGBDTrainer, mask2target,DepthMapper,DepthRCNN,MultiLoss,EdgeImportanceLoss,_toMask,JointDepthEvaluator,DepthJointRCNN from scipy import ndimage as ndi import torch import torch.nn.functional as F import torch.nn as nn from torch.nn.modules.loss import _Loss from detectron2.evaluation import COCOEvaluator, inference_on_dataset from detectron2.data.datasets.coco import convert_to_coco_json from detectron2.data import build_detection_test_loader from detectron2.evaluation.coco_evaluation import instances_to_coco_json from pycocotools import mask as maskUtils from pycocotools.coco import COCO from detectron2.structures import BitMasks, PolygonMasks import scipy import matplotlib.pyplot as plt validationJsonPath = "/files/Dataset/train.json" trainingJsonPath = "/files/Dataset/validation.json" datasetPath = "/files/Dataset/datasetPics/" register_coco_instances("my_dataset_train", {},validationJsonPath , datasetPath) register_coco_instances("my_dataset_val", {}, trainingJsonPath, datasetPath) ''' cfg = get_cfg() cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml") cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN" cfg.DATASETS.TRAIN = ("my_dataset_train",) cfg.DATASETS.TEST = ("my_dataset_val",) cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth" cfg.DATALOADER.NUM_WORKERS = 2 cfg.SOLVER.IMS_PER_BATCH = 1 cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512) cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets) cfg.MODEL.BACKBONE.FREEZE_AT = 0 cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1 cfg.MODEL.RETINANET.NUM_CLASSES = 1 cfg.MODEL.RESNETS.NORM = "noNorm"#"BN" cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128 cfg.TEST.EVAL_PERIOD = 1 cfg.TEST.PRECISE_BN.ENABLED = False folder = "2020_11_24_small_Joint" cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder cfg.SEED = 42 #cfg.INPUT.CROP.ENABLED = False os.makedirs(cfg.OUTPUT_DIR, exist_ok=True) cfg.SOLVER.CHECKPOINT_PERIOD = 25000 cfg.SOLVER.MAX_ITER = 2 cfg.SOLVER.BASE_LR = 0.008 cfg.SOLVER.STEPS = (75000,) cfg.TEST.DETECTIONS_PER_IMAGE = 250 cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005 trainer = RGBDTrainer(cfg) trainer.resume_or_load(resume=False) trainer.train() del trainer torch.cuda.empty_cache() ################################################################################## cfg = get_cfg() cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml") cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN" cfg.DATASETS.TRAIN = ("my_dataset_train",) cfg.DATASETS.TEST = ("my_dataset_val",) cfg.MODEL.WEIGHTS = "" cfg.DATALOADER.NUM_WORKERS = 2 cfg.SOLVER.IMS_PER_BATCH = 1 cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512) cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets) cfg.MODEL.BACKBONE.FREEZE_AT = 0 cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1 cfg.MODEL.RETINANET.NUM_CLASSES = 1 cfg.MODEL.RESNETS.NORM = "noNorm"#"BN" cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128 cfg.TEST.EVAL_PERIOD = 1 cfg.TEST.PRECISE_BN.ENABLED = False folder = "2020_11_24_small_Joint_noInit" cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder cfg.SEED = 42 #cfg.INPUT.CROP.ENABLED = False os.makedirs(cfg.OUTPUT_DIR, exist_ok=True) cfg.SOLVER.CHECKPOINT_PERIOD = 25000 cfg.SOLVER.BASE_LR = 0.008 cfg.SOLVER.STEPS = (75000,) cfg.TEST.DETECTIONS_PER_IMAGE = 250 cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005 cfg.SOLVER.MAX_ITER = 2 trainer = RGBDTrainer(cfg) trainer.resume_or_load(resume=False) trainer.train() del trainer torch.cuda.empty_cache() ################################################################################## cfg = get_cfg() cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml") cfg.MODEL.META_ARCHITECTURE = "OnlyRCNN" cfg.DATASETS.TRAIN = ("my_dataset_train",) cfg.DATASETS.TEST = ("my_dataset_val",) cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth" cfg.DATALOADER.NUM_WORKERS = 2 cfg.SOLVER.IMS_PER_BATCH = 1 cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512) cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets) cfg.MODEL.BACKBONE.FREEZE_AT = 0 cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1 cfg.MODEL.RETINANET.NUM_CLASSES = 1 cfg.MODEL.RESNETS.NORM = "noNorm"#"BN" cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128 cfg.TEST.EVAL_PERIOD = 1 cfg.TEST.PRECISE_BN.ENABLED = False folder = "2020_11_24_small_RCNN" cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder cfg.SEED = 42 #cfg.INPUT.CROP.ENABLED = False os.makedirs(cfg.OUTPUT_DIR, exist_ok=True) cfg.SOLVER.CHECKPOINT_PERIOD = 25000 cfg.SOLVER.BASE_LR = 0.008 cfg.SOLVER.STEPS = (75000,) cfg.TEST.DETECTIONS_PER_IMAGE = 250 cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005 cfg.SOLVER.MAX_ITER = 2 trainer = RGBDTrainer(cfg) trainer.resume_or_load(resume=False) trainer.train() del trainer torch.cuda.empty_cache() ##################################################################################''' cfg = get_cfg() cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml") cfg.MODEL.META_ARCHITECTURE = "OnlyEdges" cfg.DATASETS.TRAIN = ("my_dataset_train",) cfg.DATASETS.TEST = ("my_dataset_val",) cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth" cfg.DATALOADER.NUM_WORKERS = 3 cfg.SOLVER.IMS_PER_BATCH = 1 cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512) cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets) cfg.MODEL.BACKBONE.FREEZE_AT = 0 cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1 cfg.MODEL.RETINANET.NUM_CLASSES = 1 cfg.MODEL.RESNETS.NORM = "noNorm"#"BN" cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128 cfg.TEST.EVAL_PERIOD = 1 cfg.TEST.PRECISE_BN.ENABLED = False folder = "2020_11_24_small_Edges" cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder cfg.SEED = 42 #cfg.INPUT.CROP.ENABLED = False os.makedirs(cfg.OUTPUT_DIR, exist_ok=True) cfg.SOLVER.CHECKPOINT_PERIOD = 25000 cfg.SOLVER.BASE_LR = 0.008 cfg.SOLVER.STEPS = (75000,) cfg.TEST.DETECTIONS_PER_IMAGE = 250 cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005 cfg.SOLVER.MAX_ITER = 2 trainer = RGBDTrainer(cfg) trainer.resume_or_load(resume=False) trainer.train() del trainer torch.cuda.empty_cache() ################################################################################## cfg = get_cfg() cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml") cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN" cfg.DATASETS.TRAIN = ("my_dataset_train",) cfg.DATASETS.TEST = ("my_dataset_val",) cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth" cfg.DATALOADER.NUM_WORKERS = 2 cfg.SOLVER.IMS_PER_BATCH = 1 cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512) cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets) cfg.MODEL.BACKBONE.FREEZE_AT = 0 cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1 cfg.MODEL.RETINANET.NUM_CLASSES = 1 cfg.MODEL.RESNETS.NORM = "noNorm"#"BN" cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128 cfg.TEST.EVAL_PERIOD = 1 cfg.TEST.PRECISE_BN.ENABLED = False folder = "2020_11_24_small_joint_onlyRGB" cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder cfg.SEED = 42 #cfg.INPUT.CROP.ENABLED = False os.makedirs(cfg.OUTPUT_DIR, exist_ok=True) cfg.SOLVER.CHECKPOINT_PERIOD = 25000 cfg.SOLVER.BASE_LR = 0.008 cfg.SOLVER.STEPS = (75000,) cfg.TEST.DETECTIONS_PER_IMAGE = 250 cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005 cfg.SOLVER.MAX_ITER = 2 trainer = RGBDTrainer(cfg) trainer.resume_or_load(resume=False) trainer.train() del trainer torch.cuda.empty_cache() ################################################################################## cfg = get_cfg() cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml") cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN" cfg.DATASETS.TRAIN = ("my_dataset_train",) cfg.DATASETS.TEST = ("my_dataset_val",) cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth" cfg.DATALOADER.NUM_WORKERS = 2 cfg.SOLVER.IMS_PER_BATCH = 1 cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512) cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets) cfg.MODEL.BACKBONE.FREEZE_AT = 0 cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1 cfg.MODEL.RETINANET.NUM_CLASSES = 1 cfg.MODEL.RESNETS.NORM = "noNorm"#"BN" cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128 cfg.TEST.EVAL_PERIOD = 1 cfg.TEST.PRECISE_BN.ENABLED = False folder = "2020_11_24_small_joint_onlyDepth" cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder cfg.SEED = 42 #cfg.INPUT.CROP.ENABLED = False os.makedirs(cfg.OUTPUT_DIR, exist_ok=True) cfg.SOLVER.CHECKPOINT_PERIOD = 25000 cfg.SOLVER.BASE_LR = 0.008 cfg.SOLVER.STEPS = (75000,) cfg.TEST.DETECTIONS_PER_IMAGE = 250 cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005 cfg.SOLVER.MAX_ITER = 2 trainer = RGBDTrainerDeleteRGB(cfg) trainer.resume_or_load(resume=False) trainer.train() del trainer torch.cuda.empty_cache() ################################################################################## cfg = get_cfg() cfg.merge_from_file("/files/Code/detectronResNest/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_101_FPN_syncBN_1x.yaml") cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN" cfg.DATASETS.TRAIN = ("my_dataset_train",) cfg.DATASETS.TEST = ("my_dataset_val",) cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/faster_cascade_rcnn_ResNeSt_101_FPN_syncbn_range-scale_1x-3627ef78.pth" cfg.DATALOADER.NUM_WORKERS = 2 cfg.SOLVER.IMS_PER_BATCH = 1 cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512) cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets) cfg.MODEL.BACKBONE.FREEZE_AT = 0 cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1 cfg.MODEL.RETINANET.NUM_CLASSES = 1 cfg.MODEL.RESNETS.NORM = "noNorm"#"BN" cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128 cfg.TEST.EVAL_PERIOD = 1 cfg.TEST.PRECISE_BN.ENABLED = False folder = "2020_11_24_big_Joint" cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder cfg.SEED = 42 #cfg.INPUT.CROP.ENABLED = False os.makedirs(cfg.OUTPUT_DIR, exist_ok=True) cfg.SOLVER.CHECKPOINT_PERIOD = 25000 cfg.SOLVER.BASE_LR = 0.008 cfg.SOLVER.STEPS = (75000,) cfg.TEST.DETECTIONS_PER_IMAGE = 250 cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005 cfg.SOLVER.MAX_ITER = 2 trainer = RGBDTrainer(cfg) trainer.resume_or_load(resume=False) trainer.train() del trainer torch.cuda.empty_cache()
40.949555
166
0.782246
2,046
13,800
5.053275
0.123656
0.054164
0.01828
0.021666
0.806751
0.794371
0.779186
0.764
0.755102
0.746591
0
0.036114
0.081014
13,800
336
167
41.071429
0.779136
0.072029
0
0.675127
0
0
0.167483
0.136701
0
0
0
0
0
1
0
false
0
0.324873
0
0.324873
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
1
0
0
0
0
7
25936836e30bbff7824ed9ef71b04e355c0a63ab
374
py
Python
python/testData/inspections/PyCompatibilityInspection/conditionalExpression.py
teddywest32/intellij-community
e0268d7a1da1d318b441001448cdd3e8929b2f29
[ "Apache-2.0" ]
null
null
null
python/testData/inspections/PyCompatibilityInspection/conditionalExpression.py
teddywest32/intellij-community
e0268d7a1da1d318b441001448cdd3e8929b2f29
[ "Apache-2.0" ]
11
2017-02-27T22:35:32.000Z
2021-12-24T08:07:40.000Z
python/testData/inspections/PyCompatibilityInspection/conditionalExpression.py
teddywest32/intellij-community
e0268d7a1da1d318b441001448cdd3e8929b2f29
[ "Apache-2.0" ]
1
2020-11-27T10:36:50.000Z
2020-11-27T10:36:50.000Z
# PY-4293 def test_conditional_expression(val): x = <warning descr="Python version 2.4 doesn't support this syntax.">'Yes' if val else 'No'</warning> return <warning descr="Python version 2.4 doesn't support this syntax.">'Yes' if val else 'No'</warning> def f(arg): pass f(<warning descr="Python version 2.4 doesn't support this syntax.">1 if True else 2</warning>)
41.555556
106
0.719251
65
374
4.107692
0.446154
0.134831
0.202247
0.280899
0.719101
0.719101
0.719101
0.719101
0.719101
0.719101
0
0.037383
0.141711
374
9
107
41.555556
0.794393
0.018717
0
0
0
0
0.412568
0
0
0
0
0
0
0
null
null
0.166667
0
null
null
0
0
0
0
null
0
1
1
0
1
1
1
1
1
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
1
0
0
1
0
0
0
0
0
10
25c670fb467c8125228a1ed20e79d8863d4e9753
4,289
py
Python
utilities/tfwrapper/layer.py
wong-ck/DeepSegment
01c04b2d80355b97d3494e0073ba35ef9c98e546
[ "MIT" ]
null
null
null
utilities/tfwrapper/layer.py
wong-ck/DeepSegment
01c04b2d80355b97d3494e0073ba35ef9c98e546
[ "MIT" ]
null
null
null
utilities/tfwrapper/layer.py
wong-ck/DeepSegment
01c04b2d80355b97d3494e0073ba35ef9c98e546
[ "MIT" ]
null
null
null
# Written by Chun Kit Wong and CIRC under MIT license: # https://github.com/wong-ck/DeepSegment/blob/master/LICENSE # # Modified from the acdc_segmenter: # https://github.com/baumgach/acdc_segmenter import tensorflow as tf def Conv2D( input, filters, kernel_size=(3, 3), strides=(1, 1), padding='same', data_format='channels_last', activation=tf.nn.relu, use_bias=True, kernel_initializer=None, kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, trainable=True, batchnorm=False, name=None ): output = tf.layers.Conv2D( filters=filters, kernel_size=kernel_size, strides=strides, padding=padding, data_format=data_format, activation=tf.identity, use_bias=use_bias, kernel_initializer=kernel_initializer, kernel_regularizer=kernel_regularizer, bias_regularizer=bias_regularizer, activity_regularizer=activity_regularizer, trainable=trainable, name=name )(input) if batchnorm: output = tf.layers.BatchNormalization(name=name + "_bn")(output) output = activation(output, name=name + "_activation") return output def Conv2DTranspose( input, filters, kernel_size=(4, 4), strides=(2, 2), padding='same', data_format='channels_last', activation=tf.nn.relu, use_bias=True, kernel_initializer=None, kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, trainable=True, batchnorm=False, name=None ): output = tf.layers.Conv2DTranspose( filters=filters, kernel_size=kernel_size, strides=strides, padding=padding, data_format=data_format, activation=tf.identity, use_bias=use_bias, kernel_initializer=kernel_initializer, kernel_regularizer=kernel_regularizer, bias_regularizer=bias_regularizer, activity_regularizer=activity_regularizer, trainable=trainable, name=name )(input) if batchnorm: output = tf.layers.BatchNormalization(name=name + "_bn")(output) output = activation(output, name=name + "_activation") return output def Conv3D( input, filters, kernel_size=(3, 3, 3), strides=(1, 1, 1), padding='same', data_format='channels_last', activation=tf.nn.relu, use_bias=True, kernel_initializer=None, kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, trainable=True, batchnorm=False, name=None ): output = tf.layers.Conv3D( filters=filters, kernel_size=kernel_size, strides=strides, padding=padding, data_format=data_format, activation=tf.identity, use_bias=use_bias, kernel_initializer=kernel_initializer, kernel_regularizer=kernel_regularizer, bias_regularizer=bias_regularizer, activity_regularizer=activity_regularizer, trainable=trainable, name=name )(input) if batchnorm: output = tf.layers.BatchNormalization(name=name + "_bn")(output) output = activation(output, name=name + "_activation") return output def Conv3DTranspose( input, filters, kernel_size=(4, 4, 4), strides=(2, 2, 2), padding='same', data_format='channels_last', activation=tf.nn.relu, use_bias=False, kernel_initializer=None, kernel_regularizer=None, bias_regularizer=None, activity_regularizer=None, trainable=True, batchnorm=False, name=None ): output = tf.layers.Conv3DTranspose( filters=filters, kernel_size=kernel_size, strides=strides, padding=padding, data_format=data_format, activation=tf.identity, use_bias=use_bias, kernel_initializer=kernel_initializer, kernel_regularizer=kernel_regularizer, bias_regularizer=bias_regularizer, activity_regularizer=activity_regularizer, trainable=trainable, name=name )(input) if batchnorm: output = tf.layers.BatchNormalization(name=name + "_bn")(output) output = activation(output, name=name + "_activation") return output
25.529762
72
0.666822
462
4,289
5.978355
0.147186
0.043447
0.04924
0.031861
0.904055
0.892469
0.857712
0.857712
0.857712
0.857712
0
0.008571
0.238284
4,289
167
73
25.682635
0.836853
0.043833
0
0.875862
0
0
0.030281
0
0
0
0
0
0
1
0.027586
false
0
0.006897
0
0.062069
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
25fdbbd23c41df3e72f4b42fc40687f3fbeda0e3
197
py
Python
bogofilter/__init__.py
stefantalpalaru/django-bogofilter
c52d1b82b93111016d23ace46bd0deb18cdc8aa9
[ "BSD-3-Clause" ]
1
2018-05-29T08:43:57.000Z
2018-05-29T08:43:57.000Z
bogofilter/__init__.py
stefantalpalaru/django-bogofilter
c52d1b82b93111016d23ace46bd0deb18cdc8aa9
[ "BSD-3-Clause" ]
null
null
null
bogofilter/__init__.py
stefantalpalaru/django-bogofilter
c52d1b82b93111016d23ace46bd0deb18cdc8aa9
[ "BSD-3-Clause" ]
null
null
null
from bogofilter.models import BogofilterComment from bogofilter.forms import BogofilterCommentForm def get_model(): return BogofilterComment def get_form(): return BogofilterCommentForm
19.7
50
0.822335
20
197
8
0.6
0.175
0
0
0
0
0
0
0
0
0
0
0.137056
197
9
51
21.888889
0.941176
0
0
0
0
0
0
0
0
0
0
0
0
1
0.333333
true
0
0.333333
0.333333
1
0
1
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
0
1
1
1
0
0
7
d33fb2c0d43192771209e073108dfc21a6ee90f1
221
py
Python
main.py
GGG1235/scrapy-douban
76e0e890279975829cf44957a5ca41114a96c396
[ "MIT" ]
null
null
null
main.py
GGG1235/scrapy-douban
76e0e890279975829cf44957a5ca41114a96c396
[ "MIT" ]
null
null
null
main.py
GGG1235/scrapy-douban
76e0e890279975829cf44957a5ca41114a96c396
[ "MIT" ]
null
null
null
from scrapy import cmdline cmdline.execute('scrapy crawl douban_spider'.split()) # cmdline.execute('scrapy crawl douban_spider -o douban.csv'.split()) # cmdline.execute('scrapy crawl douban_spider -o douban.json'.split())
55.25
70
0.782805
31
221
5.483871
0.387097
0.247059
0.352941
0.441176
0.794118
0.794118
0.576471
0.576471
0.576471
0
0
0
0.081448
221
4
70
55.25
0.837438
0.615385
0
0
0
0
0.313253
0
0
0
0
0
0
1
0
true
0
0.5
0
0.5
0
0
0
0
null
1
1
1
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
0
0
0
7
d376fc9eac4886a80905d06ec31b0e3baad75e50
3,719
py
Python
output/models/wg_data/sg/snbranch_xsd/snbranch.py
tefra/xsdata-w3c-tests
b6b6a4ac4e0ab610e4b50d868510a8b7105b1a5f
[ "MIT" ]
1
2021-08-14T17:59:21.000Z
2021-08-14T17:59:21.000Z
output/models/wg_data/sg/snbranch_xsd/snbranch.py
tefra/xsdata-w3c-tests
b6b6a4ac4e0ab610e4b50d868510a8b7105b1a5f
[ "MIT" ]
4
2020-02-12T21:30:44.000Z
2020-04-15T20:06:46.000Z
output/models/wg_data/sg/snbranch_xsd/snbranch.py
tefra/xsdata-w3c-tests
b6b6a4ac4e0ab610e4b50d868510a8b7105b1a5f
[ "MIT" ]
null
null
null
from dataclasses import dataclass, field from typing import List __NAMESPACE__ = "http://www.w3.org/XML/2008/xsdl-exx/ns1" @dataclass class T: choice: List[object] = field( default_factory=list, metadata={ "type": "Elements", "choices": ( { "name": "s1", "type": str, "namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1", }, { "name": "s", "type": str, "namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1", }, { "name": "n1", "type": str, "namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1", }, { "name": "n", "type": str, "namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1", }, { "wildcard": True, "type": object, "namespace": "##any", }, { "name": "a", "type": str, "namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1", }, { "name": "b", "type": str, "namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1", }, { "name": "c", "type": str, "namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1", }, ), "max_occurs": 12, } ) @dataclass class A: class Meta: name = "a" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class B: class Meta: name = "b" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class C: class Meta: name = "c" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class E: class Meta: name = "e" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class N: class Meta: name = "n" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class N1: class Meta: name = "n1" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class S: class Meta: name = "s" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class S1: class Meta: name = "s1" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1" value: str = field( default="", metadata={ "required": True, } ) @dataclass class Test(T): class Meta: name = "test" namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
21.011299
75
0.406292
350
3,719
4.3
0.134286
0.146844
0.180731
0.203322
0.762126
0.762126
0.762126
0.762126
0.762126
0.762126
0
0.053166
0.443668
3,719
176
76
21.130682
0.674239
0
0
0.510204
0
0
0.248454
0
0
0
0
0
0
1
0
false
0
0.013605
0
0.204082
0
0
0
0
null
0
1
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
d39d6d788817315b2f30d31b896887a762f587a8
5,554
py
Python
Projects/3_Adversarial Search/algorithms/algorithms.py
kdcarlsen/artificial-intelligence
6124dcc5c2caa6b4284dd287a75714cc2b52b0c1
[ "MIT" ]
null
null
null
Projects/3_Adversarial Search/algorithms/algorithms.py
kdcarlsen/artificial-intelligence
6124dcc5c2caa6b4284dd287a75714cc2b52b0c1
[ "MIT" ]
null
null
null
Projects/3_Adversarial Search/algorithms/algorithms.py
kdcarlsen/artificial-intelligence
6124dcc5c2caa6b4284dd287a75714cc2b52b0c1
[ "MIT" ]
null
null
null
""" An implementation of alpha beta search without any enhancements (i.e. iterative deepening or depth parameters) """ def alpha_beta_search(gameState): """ Return the move along a branch of the game tree that has the best possible value. A move is a pair of coordinates in (column, row) order corresponding to a legal move for the searching player. """ # min value helper function def min_value(gameState, alpha, beta): """ Return the value for a win (+1) if the game is over, otherwise return the minimum value over all legal child nodes. """ if gameState.terminal_test(): return gameState.utility(0) v = float("inf") for a in gameState.actions(): v = min(v, max_value(gameState.result(a), alpha, beta)) if v <= alpha: #effectively we are saying this value doesnt matter, alpha wins return v beta = min(beta, v) return v # min value helper function def max_value(gameState, alpha, beta): """ Return the value for a loss (-1) if the game is over, otherwise return the maximum value over all legal child nodes. """ if gameState.terminal_test(): return gameState.utility(0) v = float("-inf") for a in gameState.actions(): v = max(v, min_value(gameState.result(a), alpha, beta)) if v >= beta: # effectively value doesn't matter, beta is going to win at the next level up return v alpha = max(alpha, v) return v alpha = float("-inf") beta = float("inf") best_score = float("-inf") best_move = None for a in gameState.actions(): v = min_value(gameState.result(a), alpha, beta) alpha = max(v, alpha) if v > best_score: best_score = v best_move = a return best_move """ An implementation of alpha beta search with depth limiting given an arbitrary evaluation function. All eval functions must take a single parameter, gameState """ def alpha_beta_search_enhanced(state, depth, evalFunc, playerId): """ Return the move along a branch of the game tree that has the best possible value. A move is a pair of coordinates in (column, row) order corresponding to a legal move for the searching player. """ # min value helper function def min_value(gameState, alpha, beta, depth, evalFunc, playerId): """ Return the value for a win (+1) if the game is over, otherwise return the minimum value over all legal child nodes. """ if gameState.terminal_test(): #print ("Depth: " + str(depth) + ";In min value terminal test") return gameState.utility(playerId) if depth <= 0: return evalFunc(gameState, playerId) v = float("inf") for a in gameState.actions(): v = min(v, max_value(gameState.result(a), alpha, beta, depth-1, evalFunc, playerId)) if v <= alpha: #effectively we are saying this value doesnt matter, alpha wins return v beta = min(beta, v) return v # min value helper function def max_value(gameState, alpha, beta, depth, evalFunc, playerId): """ Return the value for a loss (-1) if the game is over, otherwise return the maximum value over all legal child nodes. """ if gameState.terminal_test(): #print ("Depth: " + str(depth) + ";In max value terminal test") return gameState.utility(playerId) if depth <= 0: return evalFunc(gameState, playerId) v = float("-inf") for a in gameState.actions(): v = max(v, min_value(gameState.result(a), alpha, beta, depth-1, evalFunc, playerId)) if v >= beta: # effectively value doesn't matter, beta is going to win at the next level up return v alpha = max(alpha, v) #print(v) return v alpha = float("-inf") beta = float("inf") best_score = float("-inf") best_move = None for a in state.actions(): v = min_value(state.result(a), alpha, beta, depth - 1, evalFunc, playerId) alpha = max(v, alpha) if v >= best_score: best_score = v best_move = a #print(best_move) return best_move def minimax(state, depth, evalFunc, playerId): def min_value(state, depth, evalFunc, playerId): if state.terminal_test(): return state.utility(playerId) if depth <= 0: return evalFunc(state, playerId) value = float("inf") for action in state.actions(): value = min(value, max_value(state.result(action), depth - 1, evalFunc, playerId)) return value def max_value(state, depth, evalFunc, playerId): if state.terminal_test(): return state.utility(playerId) if depth <= 0: return evalFunc(state, playerId) value = float("-inf") for action in state.actions(): value = max(value, min_value(state.result(action), depth - 1, evalFunc, playerId)) return value return max(state.actions(), key=lambda x: min_value(state.result(x), depth - 1, evalFunc, playerId))
38.303448
159
0.579222
702
5,554
4.527066
0.152422
0.03776
0.033984
0.030208
0.862177
0.85557
0.834802
0.829767
0.807111
0.807111
0
0.004293
0.328952
5,554
145
160
38.303448
0.848404
0.268815
0
0.72619
0
0
0.012068
0
0
0
0
0
0
1
0.107143
false
0
0
0
0.333333
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
d39ff571435287f5be1820bbedc36ed488043924
107
py
Python
runpandas/io/gpx/__init__.py
pnposch/runpandas
25388c18b52dfcc168e81922b8ba20ca93adad20
[ "MIT" ]
11
2020-12-04T20:43:23.000Z
2022-03-16T19:19:12.000Z
runpandas/io/gpx/__init__.py
pnposch/runpandas
25388c18b52dfcc168e81922b8ba20ca93adad20
[ "MIT" ]
45
2020-06-23T02:50:31.000Z
2022-02-15T16:56:00.000Z
runpandas/io/gpx/__init__.py
pnposch/runpandas
25388c18b52dfcc168e81922b8ba20ca93adad20
[ "MIT" ]
4
2021-11-11T15:23:04.000Z
2022-02-02T13:02:12.000Z
from runpandas.io.gpx._parser import read # noqa from runpandas.io.gpx._parser import gen_records # noqa
35.666667
56
0.794393
17
107
4.823529
0.588235
0.317073
0.365854
0.439024
0.731707
0.731707
0
0
0
0
0
0
0.130841
107
2
57
53.5
0.88172
0.084112
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
1
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
9
6cdecf5b5d8c19286abdd6eb1af0641601d99f02
934
py
Python
cart/views.py
masrufjaman/central-shop
c65f80a0f48cf1e07133bad8d6c0d48fdc548226
[ "MIT" ]
1
2021-07-04T13:55:07.000Z
2021-07-04T13:55:07.000Z
cart/views.py
masrufjaman/central-shop
c65f80a0f48cf1e07133bad8d6c0d48fdc548226
[ "MIT" ]
null
null
null
cart/views.py
masrufjaman/central-shop
c65f80a0f48cf1e07133bad8d6c0d48fdc548226
[ "MIT" ]
null
null
null
from django.shortcuts import render from .models import * def cart(request): if request.user.is_authenticated: customer = request.user.customer order, created = Order.objects.get_or_create( customer=customer, complete=False) items = order.orderitem_set.all() else: items = [] order = {'get_cart_total': 0, 'get_cart_items': 0} context = {'items': items, 'order': order} return render(request, 'cart/cart.html', context) def checkout(request): if request.user.is_authenticated: customer = request.user.customer order, created = Order.objects.get_or_create( customer=customer, complete=False) items = order.orderitem_set.all() else: items = [] order = {'get_cart_total': 0, 'get_cart_items': 0} context = {'items': items, 'order': order} return render(request, 'cart/checkout.html', context)
28.30303
58
0.639186
110
934
5.281818
0.3
0.10327
0.055077
0.068847
0.829604
0.829604
0.829604
0.829604
0.829604
0.829604
0
0.005634
0.239829
934
32
59
29.1875
0.812676
0
0
0.75
0
0
0.115632
0
0
0
0
0
0
1
0.083333
false
0
0.083333
0
0.25
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
6cf2688a82e01b5de5bad59588d565f78563f146
454
py
Python
Codegate/2019 Quals/the_matrix/solver.py
PurpEth/solved-hacking-problem
6f289d1647eb9c091caa580c7aae673e3ba02952
[ "Unlicense" ]
1
2021-08-24T22:16:41.000Z
2021-08-24T22:16:41.000Z
Codegate/2019 Quals/the_matrix/solver.py
PurpEth/solved-hacking-problem
6f289d1647eb9c091caa580c7aae673e3ba02952
[ "Unlicense" ]
null
null
null
Codegate/2019 Quals/the_matrix/solver.py
PurpEth/solved-hacking-problem
6f289d1647eb9c091caa580c7aae673e3ba02952
[ "Unlicense" ]
null
null
null
import binascii tile = "ThER_SPONFLAG()CI " data = "11 11 11 11 11 0F 07 08 0C 03 0B 00 04 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 09 0A 0B 0C 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 0D 00 01 02 03 02 04 10 05 04 08 07 04 05 06 07 08 0E 11".replace(' ', '') print ''.join(map(lambda x: tile[ord(x)], binascii.unhexlify(data)))
56.75
337
0.660793
123
454
2.430894
0.268293
0.936455
1.344482
1.712375
0.488294
0.45485
0.45485
0.45485
0.45485
0.45485
0
0.60241
0.268722
454
7
338
64.857143
0.298193
0
0
0
0
0.25
0.726872
0
0
1
0
0
0
0
null
null
0
0.25
null
null
0.25
0
0
0
null
1
1
1
0
0
0
0
0
0
0
1
0
0
1
0
0
1
0
0
0
0
1
1
0
null
1
0
0
0
1
0
0
0
0
0
0
0
0
10
9f0823775c9a82617d932cae5ad6d03763d793e7
4,709
py
Python
2017/171125/master/tests.py
emmenezes/CodingDojo
50468e29ea9c724a4dc1196c8374125c5b1cfc20
[ "Beerware" ]
11
2017-06-30T00:33:14.000Z
2019-04-18T01:16:13.000Z
2017/171125/master/tests.py
emmenezes/CodingDojo
50468e29ea9c724a4dc1196c8374125c5b1cfc20
[ "Beerware" ]
7
2017-10-29T20:05:01.000Z
2018-07-06T20:18:51.000Z
2017/171125/master/tests.py
emmenezes/CodingDojo
50468e29ea9c724a4dc1196c8374125c5b1cfc20
[ "Beerware" ]
5
2019-10-23T22:49:55.000Z
2021-01-11T01:39:58.000Z
import unittest from main import Brainfuck class BrainfuckTests(unittest.TestCase): def setUp(self): self.bf = Brainfuck() def test_output_cell(self): program = '.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(ord(result),0) def test_ret_inc_cell(self): program = '+' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'') def test_ret_dec_cell(self): program = '-' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'') def test_ret_inc_pont(self): program = '>' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'') def test_ret_dec_pont(self): program = '<' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'Erro limite') def test_ret_input(self): program = ',' leitura = 'a' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'') def test_ret_inc_uni_cell(self): program = '+.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(ord(result),1) def test_ret_dec_uni_cell(self): program = '-.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(ord(result),255) def test_ret_inc_uni_pont(self): program = '>.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(ord(result),0) def test_ret_dec_uni_pont(self): program = '<.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'Erro limite') def test_ret_uni_input(self): program = ',.' leitura = 'a' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'a') def test_ret_char_dif(self): program = '/sdçkasdfçs.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(ord(result),0) def test_incrementa_cell(self): program = '+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'A') def test_decrementa_cell(self): program = '++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'ZYXWVUTSRQPONMLKJIHGFEDCBA') def test_incrementa_pont(self): program = '+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.>++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'AB') def test_decrementa_pont(self): program = '+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++>++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++>+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++<<.>.>.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'ABC') def test_input_cell(self): program = ',-.' leitura = '9' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'8') def test_char_diferente(self): program = '+++++Testando+++++++++++++++Outros+++++++++++++++++++++++++++++++++++++Caracteres++++++++++++++++++++++++e+++++++++.-.-.-.-.-deixando.-.-.-.-.-.-a.-.-.-.-cadeia.-.-.-.-.-.-.-enorme.-.-.-.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result,'ZYXWVUTSRQPONMLKJIHGFEDCBA') def test_cont_colchete_errado(self): program = '+[>,]<-[+.<-]]' result = self.bf.cont_colchete(program) self.assertEqual(result, 'Malformed expression') def test_loop_simples(self): program = '++++++++++[>++++++++>++++++++++>+++++++++++>++++++++++>++++++++++++>++++++++++>++++++++++>+++>++++++++>+++++<<<<<<<<<<-]>++++.>---.>--.>+++++.>----.>++++.>---.>++.>+++.>.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result, 'Talitha S2') def test_loops_encadeados(self): program = '++++++++[>++++[>++>+++>+++>+<<<<-]>+>+>->>+[<]<-]>>.>---.+++++++..+++.>>.<-.<.+++.------.--------.>>+.>++.' leitura = '' result = self.bf.brainfuck_program(program,leitura) self.assertEqual(result, 'Hello World!\n') if __name__ == '__main__': unittest.main()
34.123188
223
0.528775
431
4,709
5.577726
0.153132
0.221298
0.131032
0.174709
0.792013
0.77995
0.77995
0.77995
0.77995
0.77995
0
0.002533
0.161605
4,709
137
224
34.372263
0.606383
0
0
0.45045
0
0
0.253345
0.225738
0
0
0
0
0.189189
1
0.198198
false
0
0.018018
0
0.225225
0
0
0
0
null
1
0
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
9f3f05dd4b749f6cd110d80fa2a35b03f5283879
1,168
py
Python
controllers/controllers.py
horaciosanrafael/cheques
50929bc67c928091f9012165f4aa2cfd4efab4f3
[ "MIT" ]
null
null
null
controllers/controllers.py
horaciosanrafael/cheques
50929bc67c928091f9012165f4aa2cfd4efab4f3
[ "MIT" ]
null
null
null
controllers/controllers.py
horaciosanrafael/cheques
50929bc67c928091f9012165f4aa2cfd4efab4f3
[ "MIT" ]
null
null
null
# -*- coding: utf-8 -*- # from odoo import http # class /home/horacio/odoo1303/misapps/cheques(http.Controller): # @http.route('//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques/', auth='public') # def index(self, **kw): # return "Hello, world" # @http.route('//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques/objects/', auth='public') # def list(self, **kw): # return http.request.render('/home/horacio/odoo1303/misapps/cheques.listing', { # 'root': '//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques', # 'objects': http.request.env['/home/horacio/odoo1303/misapps/cheques./home/horacio/odoo1303/misapps/cheques'].search([]), # }) # @http.route('//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques/objects/<model("/home/horacio/odoo1303/misapps/cheques./home/horacio/odoo1303/misapps/cheques"):obj>/', auth='public') # def object(self, obj, **kw): # return http.request.render('/home/horacio/odoo1303/misapps/cheques.object', { # 'object': obj # })
53.090909
216
0.668664
135
1,168
5.785185
0.259259
0.211268
0.364917
0.49936
0.759283
0.717029
0.717029
0.717029
0.717029
0.717029
0
0.060757
0.140411
1,168
21
217
55.619048
0.717131
0.96661
0
null
0
null
0
0
null
0
0
0
null
1
null
true
0
0
null
null
null
0
0
0
null
1
1
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
0
0
0
0
0
10
9f6dc098e39fe82a31e6f3258915b1cc23bdc0d0
1,944
py
Python
pydevices/RfxDevices/SPIDER_PARAMS.py
fluffynukeit/mdsplus
a204d2e9d26554bb035945595210f2a57d187250
[ "BSD-2-Clause" ]
53
2015-01-05T08:55:13.000Z
2022-03-30T07:43:41.000Z
pydevices/RfxDevices/SPIDER_PARAMS.py
fluffynukeit/mdsplus
a204d2e9d26554bb035945595210f2a57d187250
[ "BSD-2-Clause" ]
1,231
2015-02-02T18:54:02.000Z
2022-03-30T08:27:45.000Z
pydevices/RfxDevices/SPIDER_PARAMS.py
fluffynukeit/mdsplus
a204d2e9d26554bb035945595210f2a57d187250
[ "BSD-2-Clause" ]
44
2015-05-24T20:18:06.000Z
2022-02-07T13:51:04.000Z
from MDSplus import mdsExceptions, Device class SPIDER_PARAMS(Device): """SPIDER Experiment Parameters""" parts = [{'path': ':COMMENT', 'type': 'text'}, {'path': ':R_ISBP', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(0.420,\'Ohm\'),\'Bias Plate parallel resistance\',*)")'}, {'path': ':R_ISBI', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(0.420,\'Ohm\'),\'Bias parallel resistance\',*)")'}, {'path': ':CS1', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR1 and DR2\',*)")'}, {'path': ':CP1', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR1 and DR2\',*)")'}, {'path': ':CS2', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR7 and DR7\',*)")'}, {'path': ':CP2', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR7 and DR8\',*)")'}, {'path': ':CS3', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR3 and DR4\',*)")'}, {'path': ':CP3', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR3 and DR4\',*)")'}, {'path': ':CS4', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR5 and DR5\',*)")'}, {'path': ':CP4', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR5 and DR6\',*)")'}]
74.769231
165
0.549897
224
1,944
4.625
0.25
0.106178
0.19305
0.23166
0.764479
0.714286
0.714286
0.714286
0.714286
0.714286
0
0.036506
0.210905
1,944
25
166
77.76
0.638853
0.014403
0
0
0
0
0.468063
0.265969
0
0
0
0
0
1
0
false
0
0.045455
0
0.136364
0
0
0
0
null
0
1
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
9fcd606e164c8ee5686484bf2866c7eb8cd997cb
32,676
py
Python
sdk/python/pulumi_azure/network/traffic_manager_azure_endpoint.py
henriktao/pulumi-azure
f1cbcf100b42b916da36d8fe28be3a159abaf022
[ "ECL-2.0", "Apache-2.0" ]
null
null
null
sdk/python/pulumi_azure/network/traffic_manager_azure_endpoint.py
henriktao/pulumi-azure
f1cbcf100b42b916da36d8fe28be3a159abaf022
[ "ECL-2.0", "Apache-2.0" ]
null
null
null
sdk/python/pulumi_azure/network/traffic_manager_azure_endpoint.py
henriktao/pulumi-azure
f1cbcf100b42b916da36d8fe28be3a159abaf022
[ "ECL-2.0", "Apache-2.0" ]
null
null
null
# coding=utf-8 # *** WARNING: this file was generated by the Pulumi Terraform Bridge (tfgen) Tool. *** # *** Do not edit by hand unless you're certain you know what you are doing! *** import warnings import pulumi import pulumi.runtime from typing import Any, Mapping, Optional, Sequence, Union, overload from .. import _utilities from . import outputs from ._inputs import * __all__ = ['TrafficManagerAzureEndpointArgs', 'TrafficManagerAzureEndpoint'] @pulumi.input_type class TrafficManagerAzureEndpointArgs: def __init__(__self__, *, profile_id: pulumi.Input[str], target_resource_id: pulumi.Input[str], weight: pulumi.Input[int], custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]] = None, enabled: Optional[pulumi.Input[bool]] = None, geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, name: Optional[pulumi.Input[str]] = None, priority: Optional[pulumi.Input[int]] = None, subnets: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]] = None): """ The set of arguments for constructing a TrafficManagerAzureEndpoint resource. :param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created. :param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target. :param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`. :param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]] custom_headers: One or more `custom_header` blocks as defined below. :param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`. :param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault). :param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created. :param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be specified for Profiles using the `Priority` traffic routing method. Supports values between 1 and 1000, with no Endpoints sharing the same value. If omitted the value will be computed in order of creation. :param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]] subnets: One or more `subnet` blocks as defined below """ pulumi.set(__self__, "profile_id", profile_id) pulumi.set(__self__, "target_resource_id", target_resource_id) pulumi.set(__self__, "weight", weight) if custom_headers is not None: pulumi.set(__self__, "custom_headers", custom_headers) if enabled is not None: pulumi.set(__self__, "enabled", enabled) if geo_mappings is not None: pulumi.set(__self__, "geo_mappings", geo_mappings) if name is not None: pulumi.set(__self__, "name", name) if priority is not None: pulumi.set(__self__, "priority", priority) if subnets is not None: pulumi.set(__self__, "subnets", subnets) @property @pulumi.getter(name="profileId") def profile_id(self) -> pulumi.Input[str]: """ The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created. """ return pulumi.get(self, "profile_id") @profile_id.setter def profile_id(self, value: pulumi.Input[str]): pulumi.set(self, "profile_id", value) @property @pulumi.getter(name="targetResourceId") def target_resource_id(self) -> pulumi.Input[str]: """ The ID of the Azure Resource which should be used as a target. """ return pulumi.get(self, "target_resource_id") @target_resource_id.setter def target_resource_id(self, value: pulumi.Input[str]): pulumi.set(self, "target_resource_id", value) @property @pulumi.getter def weight(self) -> pulumi.Input[int]: """ Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`. """ return pulumi.get(self, "weight") @weight.setter def weight(self, value: pulumi.Input[int]): pulumi.set(self, "weight", value) @property @pulumi.getter(name="customHeaders") def custom_headers(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]: """ One or more `custom_header` blocks as defined below. """ return pulumi.get(self, "custom_headers") @custom_headers.setter def custom_headers(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]): pulumi.set(self, "custom_headers", value) @property @pulumi.getter def enabled(self) -> Optional[pulumi.Input[bool]]: """ Is the endpoint enabled? Defaults to `true`. """ return pulumi.get(self, "enabled") @enabled.setter def enabled(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "enabled", value) @property @pulumi.getter(name="geoMappings") def geo_mappings(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]: """ A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault). """ return pulumi.get(self, "geo_mappings") @geo_mappings.setter def geo_mappings(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]): pulumi.set(self, "geo_mappings", value) @property @pulumi.getter def name(self) -> Optional[pulumi.Input[str]]: """ The name of the Azure Endpoint. Changing this forces a new resource to be created. """ return pulumi.get(self, "name") @name.setter def name(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "name", value) @property @pulumi.getter def priority(self) -> Optional[pulumi.Input[int]]: """ Specifies the priority of this Endpoint, this must be specified for Profiles using the `Priority` traffic routing method. Supports values between 1 and 1000, with no Endpoints sharing the same value. If omitted the value will be computed in order of creation. """ return pulumi.get(self, "priority") @priority.setter def priority(self, value: Optional[pulumi.Input[int]]): pulumi.set(self, "priority", value) @property @pulumi.getter def subnets(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]: """ One or more `subnet` blocks as defined below """ return pulumi.get(self, "subnets") @subnets.setter def subnets(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]): pulumi.set(self, "subnets", value) @pulumi.input_type class _TrafficManagerAzureEndpointState: def __init__(__self__, *, custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]] = None, enabled: Optional[pulumi.Input[bool]] = None, geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, name: Optional[pulumi.Input[str]] = None, priority: Optional[pulumi.Input[int]] = None, profile_id: Optional[pulumi.Input[str]] = None, subnets: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]] = None, target_resource_id: Optional[pulumi.Input[str]] = None, weight: Optional[pulumi.Input[int]] = None): """ Input properties used for looking up and filtering TrafficManagerAzureEndpoint resources. :param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]] custom_headers: One or more `custom_header` blocks as defined below. :param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`. :param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault). :param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created. :param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be specified for Profiles using the `Priority` traffic routing method. Supports values between 1 and 1000, with no Endpoints sharing the same value. If omitted the value will be computed in order of creation. :param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created. :param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]] subnets: One or more `subnet` blocks as defined below :param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target. :param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`. """ if custom_headers is not None: pulumi.set(__self__, "custom_headers", custom_headers) if enabled is not None: pulumi.set(__self__, "enabled", enabled) if geo_mappings is not None: pulumi.set(__self__, "geo_mappings", geo_mappings) if name is not None: pulumi.set(__self__, "name", name) if priority is not None: pulumi.set(__self__, "priority", priority) if profile_id is not None: pulumi.set(__self__, "profile_id", profile_id) if subnets is not None: pulumi.set(__self__, "subnets", subnets) if target_resource_id is not None: pulumi.set(__self__, "target_resource_id", target_resource_id) if weight is not None: pulumi.set(__self__, "weight", weight) @property @pulumi.getter(name="customHeaders") def custom_headers(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]: """ One or more `custom_header` blocks as defined below. """ return pulumi.get(self, "custom_headers") @custom_headers.setter def custom_headers(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]): pulumi.set(self, "custom_headers", value) @property @pulumi.getter def enabled(self) -> Optional[pulumi.Input[bool]]: """ Is the endpoint enabled? Defaults to `true`. """ return pulumi.get(self, "enabled") @enabled.setter def enabled(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "enabled", value) @property @pulumi.getter(name="geoMappings") def geo_mappings(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]: """ A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault). """ return pulumi.get(self, "geo_mappings") @geo_mappings.setter def geo_mappings(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]): pulumi.set(self, "geo_mappings", value) @property @pulumi.getter def name(self) -> Optional[pulumi.Input[str]]: """ The name of the Azure Endpoint. Changing this forces a new resource to be created. """ return pulumi.get(self, "name") @name.setter def name(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "name", value) @property @pulumi.getter def priority(self) -> Optional[pulumi.Input[int]]: """ Specifies the priority of this Endpoint, this must be specified for Profiles using the `Priority` traffic routing method. Supports values between 1 and 1000, with no Endpoints sharing the same value. If omitted the value will be computed in order of creation. """ return pulumi.get(self, "priority") @priority.setter def priority(self, value: Optional[pulumi.Input[int]]): pulumi.set(self, "priority", value) @property @pulumi.getter(name="profileId") def profile_id(self) -> Optional[pulumi.Input[str]]: """ The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created. """ return pulumi.get(self, "profile_id") @profile_id.setter def profile_id(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "profile_id", value) @property @pulumi.getter def subnets(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]: """ One or more `subnet` blocks as defined below """ return pulumi.get(self, "subnets") @subnets.setter def subnets(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]): pulumi.set(self, "subnets", value) @property @pulumi.getter(name="targetResourceId") def target_resource_id(self) -> Optional[pulumi.Input[str]]: """ The ID of the Azure Resource which should be used as a target. """ return pulumi.get(self, "target_resource_id") @target_resource_id.setter def target_resource_id(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "target_resource_id", value) @property @pulumi.getter def weight(self) -> Optional[pulumi.Input[int]]: """ Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`. """ return pulumi.get(self, "weight") @weight.setter def weight(self, value: Optional[pulumi.Input[int]]): pulumi.set(self, "weight", value) class TrafficManagerAzureEndpoint(pulumi.CustomResource): @overload def __init__(__self__, resource_name: str, opts: Optional[pulumi.ResourceOptions] = None, custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]]] = None, enabled: Optional[pulumi.Input[bool]] = None, geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, name: Optional[pulumi.Input[str]] = None, priority: Optional[pulumi.Input[int]] = None, profile_id: Optional[pulumi.Input[str]] = None, subnets: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]]] = None, target_resource_id: Optional[pulumi.Input[str]] = None, weight: Optional[pulumi.Input[int]] = None, __props__=None): """ Manages an Azure Endpoint within a Traffic Manager Profile. ## Example Usage ```python import pulumi import pulumi_azure as azure example_resource_group = azure.core.ResourceGroup("exampleResourceGroup", location="West Europe") example_public_ip = azure.network.PublicIp("examplePublicIp", location=azurerm_resource_group["test"]["location"], resource_group_name=azurerm_resource_group["test"]["name"], allocation_method="Static", domain_name_label="example-public-ip") example_traffic_manager_profile = azure.network.TrafficManagerProfile("exampleTrafficManagerProfile", resource_group_name=example_resource_group.name, traffic_routing_method="Weighted", dns_config=azure.network.TrafficManagerProfileDnsConfigArgs( relative_name="example-profile", ttl=100, ), monitor_config=azure.network.TrafficManagerProfileMonitorConfigArgs( protocol="http", port=80, path="/", interval_in_seconds=30, timeout_in_seconds=9, tolerated_number_of_failures=3, ), tags={ "environment": "Production", }) example_traffic_manager_azure_endpoint = azure.network.TrafficManagerAzureEndpoint("exampleTrafficManagerAzureEndpoint", profile_id=example_traffic_manager_profile.id, weight=100, target_resource_id=azurerm_public_ip["test"]["id"]) ``` ## Import Azure Endpoints can be imported using the `resource id`, e.g. ```sh $ pulumi import azure:network/trafficManagerAzureEndpoint:TrafficManagerAzureEndpoint example /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/example-resources/providers/Microsoft.Network/trafficManagerProfiles/example-profile/AzureEndpoints/example-endpoint ``` :param str resource_name: The name of the resource. :param pulumi.ResourceOptions opts: Options for the resource. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]] custom_headers: One or more `custom_header` blocks as defined below. :param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`. :param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault). :param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created. :param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be specified for Profiles using the `Priority` traffic routing method. Supports values between 1 and 1000, with no Endpoints sharing the same value. If omitted the value will be computed in order of creation. :param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]] subnets: One or more `subnet` blocks as defined below :param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target. :param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`. """ ... @overload def __init__(__self__, resource_name: str, args: TrafficManagerAzureEndpointArgs, opts: Optional[pulumi.ResourceOptions] = None): """ Manages an Azure Endpoint within a Traffic Manager Profile. ## Example Usage ```python import pulumi import pulumi_azure as azure example_resource_group = azure.core.ResourceGroup("exampleResourceGroup", location="West Europe") example_public_ip = azure.network.PublicIp("examplePublicIp", location=azurerm_resource_group["test"]["location"], resource_group_name=azurerm_resource_group["test"]["name"], allocation_method="Static", domain_name_label="example-public-ip") example_traffic_manager_profile = azure.network.TrafficManagerProfile("exampleTrafficManagerProfile", resource_group_name=example_resource_group.name, traffic_routing_method="Weighted", dns_config=azure.network.TrafficManagerProfileDnsConfigArgs( relative_name="example-profile", ttl=100, ), monitor_config=azure.network.TrafficManagerProfileMonitorConfigArgs( protocol="http", port=80, path="/", interval_in_seconds=30, timeout_in_seconds=9, tolerated_number_of_failures=3, ), tags={ "environment": "Production", }) example_traffic_manager_azure_endpoint = azure.network.TrafficManagerAzureEndpoint("exampleTrafficManagerAzureEndpoint", profile_id=example_traffic_manager_profile.id, weight=100, target_resource_id=azurerm_public_ip["test"]["id"]) ``` ## Import Azure Endpoints can be imported using the `resource id`, e.g. ```sh $ pulumi import azure:network/trafficManagerAzureEndpoint:TrafficManagerAzureEndpoint example /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/example-resources/providers/Microsoft.Network/trafficManagerProfiles/example-profile/AzureEndpoints/example-endpoint ``` :param str resource_name: The name of the resource. :param TrafficManagerAzureEndpointArgs args: The arguments to use to populate this resource's properties. :param pulumi.ResourceOptions opts: Options for the resource. """ ... def __init__(__self__, resource_name: str, *args, **kwargs): resource_args, opts = _utilities.get_resource_args_opts(TrafficManagerAzureEndpointArgs, pulumi.ResourceOptions, *args, **kwargs) if resource_args is not None: __self__._internal_init(resource_name, opts, **resource_args.__dict__) else: __self__._internal_init(resource_name, *args, **kwargs) def _internal_init(__self__, resource_name: str, opts: Optional[pulumi.ResourceOptions] = None, custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]]] = None, enabled: Optional[pulumi.Input[bool]] = None, geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, name: Optional[pulumi.Input[str]] = None, priority: Optional[pulumi.Input[int]] = None, profile_id: Optional[pulumi.Input[str]] = None, subnets: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]]] = None, target_resource_id: Optional[pulumi.Input[str]] = None, weight: Optional[pulumi.Input[int]] = None, __props__=None): if opts is None: opts = pulumi.ResourceOptions() if not isinstance(opts, pulumi.ResourceOptions): raise TypeError('Expected resource options to be a ResourceOptions instance') if opts.version is None: opts.version = _utilities.get_version() if opts.id is None: if __props__ is not None: raise TypeError('__props__ is only valid when passed in combination with a valid opts.id to get an existing resource') __props__ = TrafficManagerAzureEndpointArgs.__new__(TrafficManagerAzureEndpointArgs) __props__.__dict__["custom_headers"] = custom_headers __props__.__dict__["enabled"] = enabled __props__.__dict__["geo_mappings"] = geo_mappings __props__.__dict__["name"] = name __props__.__dict__["priority"] = priority if profile_id is None and not opts.urn: raise TypeError("Missing required property 'profile_id'") __props__.__dict__["profile_id"] = profile_id __props__.__dict__["subnets"] = subnets if target_resource_id is None and not opts.urn: raise TypeError("Missing required property 'target_resource_id'") __props__.__dict__["target_resource_id"] = target_resource_id if weight is None and not opts.urn: raise TypeError("Missing required property 'weight'") __props__.__dict__["weight"] = weight super(TrafficManagerAzureEndpoint, __self__).__init__( 'azure:network/trafficManagerAzureEndpoint:TrafficManagerAzureEndpoint', resource_name, __props__, opts) @staticmethod def get(resource_name: str, id: pulumi.Input[str], opts: Optional[pulumi.ResourceOptions] = None, custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]]] = None, enabled: Optional[pulumi.Input[bool]] = None, geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, name: Optional[pulumi.Input[str]] = None, priority: Optional[pulumi.Input[int]] = None, profile_id: Optional[pulumi.Input[str]] = None, subnets: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]]] = None, target_resource_id: Optional[pulumi.Input[str]] = None, weight: Optional[pulumi.Input[int]] = None) -> 'TrafficManagerAzureEndpoint': """ Get an existing TrafficManagerAzureEndpoint resource's state with the given name, id, and optional extra properties used to qualify the lookup. :param str resource_name: The unique name of the resulting resource. :param pulumi.Input[str] id: The unique provider ID of the resource to lookup. :param pulumi.ResourceOptions opts: Options for the resource. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]] custom_headers: One or more `custom_header` blocks as defined below. :param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`. :param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault). :param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created. :param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be specified for Profiles using the `Priority` traffic routing method. Supports values between 1 and 1000, with no Endpoints sharing the same value. If omitted the value will be computed in order of creation. :param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created. :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]] subnets: One or more `subnet` blocks as defined below :param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target. :param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`. """ opts = pulumi.ResourceOptions.merge(opts, pulumi.ResourceOptions(id=id)) __props__ = _TrafficManagerAzureEndpointState.__new__(_TrafficManagerAzureEndpointState) __props__.__dict__["custom_headers"] = custom_headers __props__.__dict__["enabled"] = enabled __props__.__dict__["geo_mappings"] = geo_mappings __props__.__dict__["name"] = name __props__.__dict__["priority"] = priority __props__.__dict__["profile_id"] = profile_id __props__.__dict__["subnets"] = subnets __props__.__dict__["target_resource_id"] = target_resource_id __props__.__dict__["weight"] = weight return TrafficManagerAzureEndpoint(resource_name, opts=opts, __props__=__props__) @property @pulumi.getter(name="customHeaders") def custom_headers(self) -> pulumi.Output[Optional[Sequence['outputs.TrafficManagerAzureEndpointCustomHeader']]]: """ One or more `custom_header` blocks as defined below. """ return pulumi.get(self, "custom_headers") @property @pulumi.getter def enabled(self) -> pulumi.Output[Optional[bool]]: """ Is the endpoint enabled? Defaults to `true`. """ return pulumi.get(self, "enabled") @property @pulumi.getter(name="geoMappings") def geo_mappings(self) -> pulumi.Output[Optional[Sequence[str]]]: """ A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault). """ return pulumi.get(self, "geo_mappings") @property @pulumi.getter def name(self) -> pulumi.Output[str]: """ The name of the Azure Endpoint. Changing this forces a new resource to be created. """ return pulumi.get(self, "name") @property @pulumi.getter def priority(self) -> pulumi.Output[int]: """ Specifies the priority of this Endpoint, this must be specified for Profiles using the `Priority` traffic routing method. Supports values between 1 and 1000, with no Endpoints sharing the same value. If omitted the value will be computed in order of creation. """ return pulumi.get(self, "priority") @property @pulumi.getter(name="profileId") def profile_id(self) -> pulumi.Output[str]: """ The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created. """ return pulumi.get(self, "profile_id") @property @pulumi.getter def subnets(self) -> pulumi.Output[Optional[Sequence['outputs.TrafficManagerAzureEndpointSubnet']]]: """ One or more `subnet` blocks as defined below """ return pulumi.get(self, "subnets") @property @pulumi.getter(name="targetResourceId") def target_resource_id(self) -> pulumi.Output[str]: """ The ID of the Azure Resource which should be used as a target. """ return pulumi.get(self, "target_resource_id") @property @pulumi.getter def weight(self) -> pulumi.Output[int]: """ Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`. """ return pulumi.get(self, "weight")
51.216301
373
0.67193
3,722
32,676
5.733208
0.075228
0.082478
0.064108
0.045691
0.901682
0.88917
0.876142
0.865176
0.858147
0.843151
0
0.006325
0.230628
32,676
637
374
51.296703
0.842482
0.436314
0
0.758514
1
0
0.130448
0.058151
0
0
0
0
0
1
0.160991
false
0.003096
0.021672
0
0.278638
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
4cb024356cf6e7e21489992917997c87c2402fb5
4,591
py
Python
simplemes/mesfactory/migrations/0001_initial.py
saulshao/simplemes
fb317570666f776231c1ffd48c6114b9697e47f1
[ "MIT" ]
null
null
null
simplemes/mesfactory/migrations/0001_initial.py
saulshao/simplemes
fb317570666f776231c1ffd48c6114b9697e47f1
[ "MIT" ]
null
null
null
simplemes/mesfactory/migrations/0001_initial.py
saulshao/simplemes
fb317570666f776231c1ffd48c6114b9697e47f1
[ "MIT" ]
null
null
null
# Generated by Django 2.2.5 on 2019-09-14 22:35 from django.db import migrations, models import django.db.models.deletion class Migration(migrations.Migration): initial = True dependencies = [ ] operations = [ migrations.CreateModel( name='Factory', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)), ('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)), ('description', models.CharField(max_length=512)), ('created_by', models.CharField(default='INIT', editable=False, max_length=50)), ('updated_by', models.CharField(default='INIT', editable=False, max_length=50)), ('created_on', models.DateTimeField(auto_now=True)), ('location', models.TextField(default='TBD', max_length=100)), ], options={ 'abstract': False, }, ), migrations.CreateModel( name='Line', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)), ('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)), ('description', models.CharField(max_length=512)), ('created_by', models.CharField(default='INIT', editable=False, max_length=50)), ('updated_by', models.CharField(default='INIT', editable=False, max_length=50)), ('created_on', models.DateTimeField(auto_now=True)), ('location', models.TextField(default='TBD', max_length=100)), ], options={ 'abstract': False, }, ), migrations.CreateModel( name='Workshop', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)), ('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)), ('description', models.CharField(max_length=512)), ('created_by', models.CharField(default='INIT', editable=False, max_length=50)), ('updated_by', models.CharField(default='INIT', editable=False, max_length=50)), ('created_on', models.DateTimeField(auto_now=True)), ('location', models.TextField(default='TBD', max_length=100)), ('factory_id', models.ForeignKey(on_delete=django.db.models.deletion.PROTECT, to='mesfactory.Factory')), ], options={ 'abstract': False, }, ), migrations.CreateModel( name='Station', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)), ('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)), ('description', models.CharField(max_length=512)), ('created_by', models.CharField(default='INIT', editable=False, max_length=50)), ('updated_by', models.CharField(default='INIT', editable=False, max_length=50)), ('created_on', models.DateTimeField(auto_now=True)), ('location', models.TextField(default='TBD', max_length=100)), ('line_id', models.ForeignKey(on_delete=django.db.models.deletion.PROTECT, to='mesfactory.Line')), ], options={ 'abstract': False, }, ), migrations.AddField( model_name='line', name='workshop_id', field=models.ForeignKey(on_delete=django.db.models.deletion.PROTECT, to='mesfactory.Workshop'), ), ]
52.770115
151
0.589414
476
4,591
5.544118
0.159664
0.081849
0.133384
0.078818
0.881394
0.881394
0.864343
0.864343
0.864343
0.864343
0
0.021075
0.266173
4,591
86
152
53.383721
0.762244
0.009802
0
0.721519
1
0
0.174736
0
0
0
0
0
0
1
0
false
0
0.025316
0
0.075949
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
4cd257383445c1018ea20f26e57fae565db63fcc
8,801
py
Python
src/tests/test_utilities.py
Echeverrias/IE
24c55f5338d9e9270bbed5af76730bf893891349
[ "MIT" ]
2
2019-11-28T02:42:25.000Z
2020-03-05T01:13:40.000Z
src/tests/test_utilities.py
Echeverrias/IE
24c55f5338d9e9270bbed5af76730bf893891349
[ "MIT" ]
22
2019-12-04T23:41:12.000Z
2022-03-02T14:58:20.000Z
src/tests/test_utilities.py
Echeverrias/IE
24c55f5338d9e9270bbed5af76730bf893891349
[ "MIT" ]
1
2020-03-05T01:13:43.000Z
2020-03-05T01:13:43.000Z
import utilities.languages_utilities as lu import utilities.utilities as u from django.test import TestCase import datetime class TestUtilities(TestCase): def test_get_float_list_from_string(self): self.assertEqual(u.get_float_list_from_string("entre 43,550€ a 45,600€;.."), [43.55, 45.6]) self.assertEqual(u.get_float_list_from_string("entre 43.550€ a 45.600€;.."), [43550.0, 45600.0]) self.assertEqual(u.get_float_list_from_string("entre 43.55€ a 45.60€;.."), [43.55, 45.60]) def test_get_int_list_from_string_test(self): self.assertEqual(u.get_int_list_from_string("entre 43.55€ a 45.60€;.."), [44, 46]) self.assertEqual(u.get_int_list_from_string("entre 43.550€ a 45.600€;.."), [43550, 45600]) self.assertEqual(u.get_int_list_from_string("entre 43550€ a 45600€;.."), [43550, 45600]) self.assertEqual(u.get_int_list_from_string("entre 43,550€ a 45,600€;.."), [44, 46]) def test_get_string_number_from_string(self): self.assertEqual(u.get_string_number_from_string('Ver todas sus ofertas (397)'), '397') self.assertEqual(u.get_string_number_from_string('Ver todas sus ofertas'), '') def test_get_int_from_string(self): self.assertEqual(u.get_int_from_string('Ref: 2622727'), 2622727) self.assertEqual(u.get_int_from_string('Ver todas sus ofertas (397)', -1), 397) self.assertEqual(u.get_int_from_string('Ver todas sus ofertas (397)'), 397) self.assertEqual(u.get_int_from_string('Ver todas sus ofertas'), None) self.assertEqual(u.get_int_from_string('Ver todas sus ofertas', -1), -1) def test_get_text_between_parenthesis(self): self.assertEqual(u.get_text_between_parenthesis('...'), []) self.assertEqual(u.get_text_between_parenthesis('... ( test )'), [' test ']) self.assertEqual(u.get_text_between_parenthesis('... (test)'), ['test']) self.assertEqual(u.get_text_between_parenthesis('... (test), ( test2)'), ['test', ' test2']) self.assertEqual(u.get_text_between_parenthesis('... (test (subtest)) --- (test2)'), ['subtest', 'test2']) self.assertEqual(u.get_text_between_parenthesis('... (test (subtest))'), ['subtest']) def test_get_a_list_of_enumerates_from_string(self): self.assertEqual(u.get_a_list_of_enumerates_from_string("perro, gato y/o tortuga"), ['perro', 'gato', 'tortuga']) self.assertEqual(u.get_a_list_of_enumerates_from_string("pink, blue and red; green or black"), ['pink', 'blue', 'red', 'green', 'black']) self.assertEqual(u.get_a_list_of_enumerates_from_string("hello world"), ["hello world"]) def test_get_an_and_list_of_enumerates_from_string(self): self.assertEqual(u.get_an_and_list_of_enumerates_from_string("perro, gato y/o tortuga"), ['perro', 'gato y/o tortuga']) self.assertEqual(u.get_an_and_list_of_enumerates_from_string("pink, blue and red; green or black"), ['pink', 'blue and red', 'green or black']) self.assertEqual(u.get_an_and_list_of_enumerates_from_string("pink, blue y red; green or black"), ['pink', 'blue', 'red', 'green or black']) self.assertEqual(u.get_an_and_list_of_enumerates_from_string("se requiere inglés más alemán con francés"), ['se requiere inglés', 'alemán', 'francés']) self.assertEqual(u.get_an_and_list_of_enumerates_from_string("hello world"), ["hello world"]) def test_get_an_or_list_of_enumerates_from_string(self): self.assertEqual(u.get_an_or_list_of_enumerates_from_string("perro, gato y/o tortuga o conejo"), ['perro, gato', 'tortuga', 'conejo']) self.assertEqual(u.get_an_or_list_of_enumerates_from_string("pink, blue and red; green or black"), ['pink, blue and red; green or black']) self.assertEqual(u.get_an_or_list_of_enumerates_from_string("se requiere inglés como alemán - francés"), ['se requiere inglés', 'alemán', 'francés']) self.assertEqual(u.get_an_or_list_of_enumerates_from_string("hello world"), ["hello world"]) def test_find_indexes_apparitions(self): self.assertEqual(u.find_indexes_apparitions('calandraca', 'a'), [1,3,7,9]) self.assertEqual(u.find_indexes_apparitions('calandraca', 'w'), []) def test_get_date_from_string(self): self.assertEqual(u.get_date_from_string("..... 31-12-2020 ......."), datetime.date(2020,12,31)) self.assertEqual(u.get_date_from_string("..... 31/12/2020 ......."), datetime.date(2020,12,31)) self.assertIsNone(u.get_date_from_string("..... veinte de diciembre .......")) def test_get_end_index_of_a_paragraph_from_string(self): self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123\n567\n9"), 4) self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123\n567\n9", 4), 4) self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123\n567\n9", 5), 8) self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123"), -1) def test_get_slice_from_sub_to_end_of_the_paragraph(self): self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph('12', "0123\n567\n9"), '3') self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph("5", "0123\n567\n9"), '67') self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph("x", "0123\n567\n9"), "") self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph("12", "01234"), "") def test_get_text_before_parenthesis(self): self.assertEqual(u.get_text_before_parenthesis('...'), '') self.assertEqual(u.get_text_before_parenthesis('hello ( test )'), "hello" ) self.assertEqual(u.get_text_before_parenthesis('hello (test), ( test2)'), "hello" ) def test_get_text_after_key(self): self.assertEqual(u.get_text_after_key('hola', 'hola amigo '), 'amigo') self.assertEqual(u.get_text_after_key('hola', 'adiós amigo '), '') def test_get_text_before_key(self): self.assertEqual(u.get_text_before_key('amigo', ' hola amigo '), 'hola') self.assertEqual(u.get_text_before_key('amigo', 'adiós colega '), '') def test_get_text_before_sub(self): # default separators == ['.', '\n', ','] self.assertEqual(u.get_text_before_sub("de todos sin duda, Paco era el mejor", 'era', distance=10), "Paco") self.assertEqual(u.get_text_before_sub("de todos sin duda, Paco era el mejor", 'era', distance=11, separators=[]), "duda, Paco") self.assertEqual(u.get_text_before_sub("de todos sin duda, Paco era el mejor", 'x', distance=10), "") def test_get_text_after_sub(self): # default separators == ['.', '\n', ','] self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor, el más listo", 'Paco', distance=20), "era el mejor") self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor, el más listo", 'Paco', distance=10), "era el me") self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor, el más listo", 'Paco', distance=10, separators=['el más']), "era el me") self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor", 'x', distance=10), "") def test_get_surrounding_text(self): self.assertEqual(u.get_surrounding_text("0123456789", '4', None, 3), "123456789") self.assertEqual(u.get_surrounding_text("0123456789", '4', 'x', 3), "123456789") self.assertEqual(u.get_surrounding_text("0123456789", '3', '5', 3), "012345678") self.assertEqual(u.get_surrounding_text("0123456789", '4', '6', 4), "0123456789") self.assertEqual(u.get_surrounding_text("0123456789", '4', '6', 40), "0123456789") self.assertEqual(u.get_surrounding_text("0123456789", 'x', '5', 3), "012345678") self.assertEqual(u.get_surrounding_text("0123456789", 'x', 'x', 40), "0123456789") def test_get_coincidences(self): self.assertEqual(u.get_coincidences("123456789", ['1','3', '100']), ['1','3']) self.assertEqual(u.get_coincidences("123456789123", ['1','3', '100']), ['1','3','1','3']) self.assertEqual(u.get_coincidences("123456789123", ['1','3', '100'], unique_values=True), ['1','3']) self.assertEqual(u.get_coincidences("123456789123", ['100']), []) self.assertEqual(u.get_coincidences("ABCD", ['a', 'b']), []) def test_replace_multiple(self): self.assertEqual(u.replace_multiple('1234', ['1','3'], 'x'), 'x2x4') self.assertEqual(u.replace_multiple('234', ['1','3'], 'x'), '2x4') self.assertEqual(u.replace_multiple('234', ['100'], 'x'), '234') def test_get_acronym(self): self.assertEqual(u.get_acronym("Sociedad Limitada"), "SL") self.assertEqual(u.get_acronym("sociedad limitada"), "") self.assertEqual(u.get_acronym("sociedad limitada", title=True), "SL")
69.299213
159
0.687763
1,293
8,801
4.389018
0.12065
0.200881
0.214273
0.237709
0.869251
0.815507
0.802819
0.724758
0.653921
0.603172
0
0.070677
0.146347
8,801
127
160
69.299213
0.682816
0.008749
0
0.019417
0
0
0.233089
0
0
0
0
0
0.747573
1
0.203884
false
0
0.038835
0
0.252427
0
0
0
0
null
1
1
1
1
1
1
1
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
1
0
1
0
0
0
0
0
0
0
10
4cdc081e3da09d515dfe32c66c26ba14a6488ecc
23,115
py
Python
cloudmersive_security_api_client/api/content_threat_detection_api.py
Cloudmersive/Cloudmersive.APIClient.Python.Security
e62d445cd21e5800bd06901fd31bc4404e0fbd51
[ "Apache-2.0" ]
null
null
null
cloudmersive_security_api_client/api/content_threat_detection_api.py
Cloudmersive/Cloudmersive.APIClient.Python.Security
e62d445cd21e5800bd06901fd31bc4404e0fbd51
[ "Apache-2.0" ]
null
null
null
cloudmersive_security_api_client/api/content_threat_detection_api.py
Cloudmersive/Cloudmersive.APIClient.Python.Security
e62d445cd21e5800bd06901fd31bc4404e0fbd51
[ "Apache-2.0" ]
null
null
null
# coding: utf-8 """ securityapi The security APIs help you detect and block security threats. # noqa: E501 OpenAPI spec version: v1 Generated by: https://github.com/swagger-api/swagger-codegen.git """ from __future__ import absolute_import import re # noqa: F401 # python 2 and python 3 compatibility library import six from cloudmersive_security_api_client.api_client import ApiClient class ContentThreatDetectionApi(object): """NOTE: This class is auto generated by the swagger code generator program. Do not edit the class manually. Ref: https://github.com/swagger-api/swagger-codegen """ def __init__(self, api_client=None): if api_client is None: api_client = ApiClient() self.api_client = api_client def content_threat_detection_automatic_threat_detection_string(self, value, **kwargs): # noqa: E501 """Automatically detect threats in an input string # noqa: E501 Auto-detects a wide range of threat types in input string, including Cross-Site Scripting (XSS), SQL Injection (SQLI), XML External Entitites (XXE), Server-side Request Forgeries (SSRF), and JSON Insecure Deserialization (JID). # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_automatic_threat_detection_string(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringAutomaticThreatDetection If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.content_threat_detection_automatic_threat_detection_string_with_http_info(value, **kwargs) # noqa: E501 else: (data) = self.content_threat_detection_automatic_threat_detection_string_with_http_info(value, **kwargs) # noqa: E501 return data def content_threat_detection_automatic_threat_detection_string_with_http_info(self, value, **kwargs): # noqa: E501 """Automatically detect threats in an input string # noqa: E501 Auto-detects a wide range of threat types in input string, including Cross-Site Scripting (XSS), SQL Injection (SQLI), XML External Entitites (XXE), Server-side Request Forgeries (SSRF), and JSON Insecure Deserialization (JID). # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_automatic_threat_detection_string_with_http_info(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringAutomaticThreatDetection If the method is called asynchronously, returns the request thread. """ all_params = ['value'] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method content_threat_detection_automatic_threat_detection_string" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'value' is set if ('value' not in params or params['value'] is None): raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_automatic_threat_detection_string`") # noqa: E501 collection_formats = {} path_params = {} query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None if 'value' in params: body_params = params['value'] # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501 # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501 ['application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['Apikey'] # noqa: E501 return self.api_client.call_api( '/security/threat-detection/content/automatic/detect/string', 'POST', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='StringAutomaticThreatDetection', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats) def content_threat_detection_check_sql_injection_string(self, value, **kwargs): # noqa: E501 """Check text input for SQL Injection (SQLI) attacks # noqa: E501 Detects SQL Injection (SQLI) attacks from text input. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_check_sql_injection_string(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringSqlInjectionDetectionResult If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.content_threat_detection_check_sql_injection_string_with_http_info(value, **kwargs) # noqa: E501 else: (data) = self.content_threat_detection_check_sql_injection_string_with_http_info(value, **kwargs) # noqa: E501 return data def content_threat_detection_check_sql_injection_string_with_http_info(self, value, **kwargs): # noqa: E501 """Check text input for SQL Injection (SQLI) attacks # noqa: E501 Detects SQL Injection (SQLI) attacks from text input. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_check_sql_injection_string_with_http_info(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringSqlInjectionDetectionResult If the method is called asynchronously, returns the request thread. """ all_params = ['value'] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method content_threat_detection_check_sql_injection_string" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'value' is set if ('value' not in params or params['value'] is None): raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_check_sql_injection_string`") # noqa: E501 collection_formats = {} path_params = {} query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None if 'value' in params: body_params = params['value'] # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501 # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501 ['application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['Apikey'] # noqa: E501 return self.api_client.call_api( '/security/threat-detection/content/sql-injection/detect/string', 'POST', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='StringSqlInjectionDetectionResult', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats) def content_threat_detection_check_xxe(self, value, **kwargs): # noqa: E501 """Protect text input from XML External Entity (XXE) attacks # noqa: E501 Detects XXE (XML External Entity) attacks from XML text input. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_check_xxe(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringXxeDetectionResult If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.content_threat_detection_check_xxe_with_http_info(value, **kwargs) # noqa: E501 else: (data) = self.content_threat_detection_check_xxe_with_http_info(value, **kwargs) # noqa: E501 return data def content_threat_detection_check_xxe_with_http_info(self, value, **kwargs): # noqa: E501 """Protect text input from XML External Entity (XXE) attacks # noqa: E501 Detects XXE (XML External Entity) attacks from XML text input. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_check_xxe_with_http_info(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringXxeDetectionResult If the method is called asynchronously, returns the request thread. """ all_params = ['value'] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method content_threat_detection_check_xxe" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'value' is set if ('value' not in params or params['value'] is None): raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_check_xxe`") # noqa: E501 collection_formats = {} path_params = {} query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None if 'value' in params: body_params = params['value'] # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501 # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501 ['application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['Apikey'] # noqa: E501 return self.api_client.call_api( '/security/threat-detection/content/xxe/detect/xml/string', 'POST', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='StringXxeDetectionResult', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats) def content_threat_detection_detect_insecure_deserialization_json_string(self, value, **kwargs): # noqa: E501 """Detect Insecure Deserialization JSON (JID) attacks in a string # noqa: E501 Detects Insecure Deserialization JSON (JID) attacks from text input. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_detect_insecure_deserialization_json_string(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringInsecureDeserializationJsonDetection If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(value, **kwargs) # noqa: E501 else: (data) = self.content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(value, **kwargs) # noqa: E501 return data def content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(self, value, **kwargs): # noqa: E501 """Detect Insecure Deserialization JSON (JID) attacks in a string # noqa: E501 Detects Insecure Deserialization JSON (JID) attacks from text input. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringInsecureDeserializationJsonDetection If the method is called asynchronously, returns the request thread. """ all_params = ['value'] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method content_threat_detection_detect_insecure_deserialization_json_string" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'value' is set if ('value' not in params or params['value'] is None): raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_detect_insecure_deserialization_json_string`") # noqa: E501 collection_formats = {} path_params = {} query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None if 'value' in params: body_params = params['value'] # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501 # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501 ['application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['Apikey'] # noqa: E501 return self.api_client.call_api( '/security/threat-detection/content/insecure-deserialization/json/detect/string', 'POST', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='StringInsecureDeserializationJsonDetection', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats) def content_threat_detection_protect_xss(self, value, **kwargs): # noqa: E501 """Protect text input from Cross-Site-Scripting (XSS) attacks through normalization # noqa: E501 Detects and removes XSS (Cross-Site-Scripting) attacks from text input through normalization. Returns the normalized result, as well as information on whether the original input contained an XSS risk. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_protect_xss(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringXssProtectionResult If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('async_req'): return self.content_threat_detection_protect_xss_with_http_info(value, **kwargs) # noqa: E501 else: (data) = self.content_threat_detection_protect_xss_with_http_info(value, **kwargs) # noqa: E501 return data def content_threat_detection_protect_xss_with_http_info(self, value, **kwargs): # noqa: E501 """Protect text input from Cross-Site-Scripting (XSS) attacks through normalization # noqa: E501 Detects and removes XSS (Cross-Site-Scripting) attacks from text input through normalization. Returns the normalized result, as well as information on whether the original input contained an XSS risk. # noqa: E501 This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please pass async_req=True >>> thread = api.content_threat_detection_protect_xss_with_http_info(value, async_req=True) >>> result = thread.get() :param async_req bool :param str value: User-facing text input. (required) :return: StringXssProtectionResult If the method is called asynchronously, returns the request thread. """ all_params = ['value'] # noqa: E501 all_params.append('async_req') all_params.append('_return_http_data_only') all_params.append('_preload_content') all_params.append('_request_timeout') params = locals() for key, val in six.iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method content_threat_detection_protect_xss" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'value' is set if ('value' not in params or params['value'] is None): raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_protect_xss`") # noqa: E501 collection_formats = {} path_params = {} query_params = [] header_params = {} form_params = [] local_var_files = {} body_params = None if 'value' in params: body_params = params['value'] # HTTP header `Accept` header_params['Accept'] = self.api_client.select_header_accept( ['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501 # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501 ['application/json', 'text/json']) # noqa: E501 # Authentication setting auth_settings = ['Apikey'] # noqa: E501 return self.api_client.call_api( '/security/threat-detection/content/xss/detect/string', 'POST', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='StringXssProtectionResult', # noqa: E501 auth_settings=auth_settings, async_req=params.get('async_req'), _return_http_data_only=params.get('_return_http_data_only'), _preload_content=params.get('_preload_content', True), _request_timeout=params.get('_request_timeout'), collection_formats=collection_formats)
43.613208
249
0.644733
2,638
23,115
5.390068
0.076573
0.04276
0.061889
0.026725
0.951825
0.949996
0.949082
0.938674
0.927984
0.925241
0
0.013921
0.269695
23,115
529
250
43.695652
0.828387
0.354878
0
0.806452
1
0
0.21294
0.093436
0
0
0
0
0
1
0.039427
false
0
0.014337
0
0.111111
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
e2925ec56b19b5bb722db7b942d05a0652f36c22
52,468
py
Python
test/integration/component/test_project_configs.py
Codegass/cloudstack
71056191f2bdad4be1a7eaf9bb73a7dcee3516f2
[ "Apache-2.0" ]
1,131
2015-01-08T18:59:06.000Z
2022-03-29T11:31:10.000Z
test/integration/component/test_project_configs.py
Codegass/cloudstack
71056191f2bdad4be1a7eaf9bb73a7dcee3516f2
[ "Apache-2.0" ]
5,908
2015-01-13T15:28:37.000Z
2022-03-31T20:31:07.000Z
test/integration/component/test_project_configs.py
Codegass/cloudstack
71056191f2bdad4be1a7eaf9bb73a7dcee3516f2
[ "Apache-2.0" ]
1,083
2015-01-05T01:16:52.000Z
2022-03-31T12:14:10.000Z
# Licensed to the Apache Software Foundation (ASF) under one # or more contributor license agreements. See the NOTICE file # distributed with this work for additional information # regarding copyright ownership. The ASF licenses this file # to you under the Apache License, Version 2.0 (the # "License"); you may not use this file except in compliance # with the License. You may obtain a copy of the License at # # http://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, # software distributed under the License is distributed on an # "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY # KIND, either express or implied. See the License for the # specific language governing permissions and limitations # under the License. """ P1 tests for Project """ #Import Local Modules import marvin from nose.plugins.attrib import attr from marvin.cloudstackTestCase import * from marvin.cloudstackAPI import * from marvin.lib.utils import * from marvin.lib.base import * from marvin.lib.common import * from marvin.sshClient import SshClient import datetime class TestUserProjectCreation(cloudstackTestCase): @classmethod def setUpClass(cls): cls.testClient = super(TestUserProjectCreation, cls).getClsTestClient() cls.api_client = cls.testClient.getApiClient() cls.testdata = cls.testClient.getParsedTestDataConfig() cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests()) cls.testdata['mode'] = cls.zone.networktype configs = Configurations.list( cls.api_client, name='allow.user.create.projects' ) if not isinstance(configs, list): raise unittest.SkipTest("List configurations has no config: allow.user.create.projects") elif (configs[0].value).lower() != 'true': raise unittest.SkipTest("'allow.user.create.projects' should be true") # Create domains, account etc. cls.domain = Domain.create( cls.api_client, cls.testdata["domain"] ) cls.account = Account.create( cls.api_client, cls.testdata["account"], admin=True, domainid=cls.domain.id ) cls.user = Account.create( cls.api_client, cls.testdata["account"], admin=True, domainid=cls.domain.id ) cls._cleanup = [cls.account, cls.user, cls.domain] return @classmethod def tearDownClass(cls): try: #Cleanup resources used cleanup_resources(cls.api_client, cls._cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return def setUp(self): self.apiclient = self.testClient.getApiClient() self.dbclient = self.testClient.getDbConnection() self.cleanup = [] return def tearDown(self): try: #Clean up, terminate the created accounts, domains etc cleanup_resources(self.apiclient, self.cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return @attr(configuration = "allow.user.create.projects") @attr(tags=["advanced", "basic", "sg", "eip", "advancedns", "simulator"], required_hardware="false") def test_admin_project_creation(self): """Test create project as a domain admin and domain user """ # Validate the following # 1. Check if 'allow.user.create.projects' configuration is true # 2. Create a Project as domain admin # 3. Create a Project as domain user # 4. In both 2 and 3 project creation should be successful configs = Configurations.list( self.apiclient, name='allow.user.create.projects' ) self.assertEqual( isinstance(configs, list), True, "Check for a valid list configurations response" ) config = configs[0] self.assertEqual( (config.value).lower(), 'true', "'allow.user.create.projects' should be true" ) # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.user.name, domainid=self.user.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain user with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) return class TestProjectCreationNegative(cloudstackTestCase): @classmethod def setUpClass(cls): cls.testClient = super(TestProjectCreationNegative, cls).getClsTestClient() cls.api_client = cls.testClient.getApiClient() cls.testdata = cls.testClient.getParsedTestDataConfig() cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests()) cls.testdata['mode'] = cls.zone.networktype # Checking for prereqisits - global configs configs = Configurations.list( cls.api_client, name='allow.user.create.projects' ) if not isinstance(configs, list): raise unittest.SkipTest("List configurations has no config: allow.user.create.projects") elif (configs[0].value).lower() != 'false': raise unittest.SkipTest("'allow.user.create.projects' should be false") # Create domains, account etc. cls.domain = Domain.create( cls.api_client, cls.testdata["domain"] ) cls.account = Account.create( cls.api_client, cls.testdata["account"], admin=True, domainid=cls.domain.id ) cls.user = Account.create( cls.api_client, cls.testdata["account"], admin=True, domainid=cls.domain.id ) cls._cleanup = [cls.account, cls.user, cls.domain] return @classmethod def tearDownClass(cls): try: #Cleanup resources used cleanup_resources(cls.api_client, cls._cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return def setUp(self): self.apiclient = self.testClient.getApiClient() self.dbclient = self.testClient.getDbConnection() self.cleanup = [] return def tearDown(self): try: #Clean up, terminate the created accounts, domains etc cleanup_resources(self.apiclient, self.cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return @attr(configuration = "allow.user.create.projects") @attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"]) def test_user_project_creation(self): """Test create project as a domain admin and domain user """ # Validate the following # 1. Check if 'allow.user.create.projects' configuration is false # 2. Create a Project as domain admin. Project creation should be # successful. # 3. Create a Project as domain user. Project creation should fail configs = Configurations.list( self.apiclient, name='allow.user.create.projects' ) self.assertEqual( isinstance(configs, list), True, "Check for a valid list configurations response" ) config = configs[0] self.assertEqual( (config.value).lower(), 'false', "'allow.user.create.projects' should be true" ) # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) with self.assertRaises(Exception): project = Project.create( self.apiclient, self.testdata["project"], account=self.user.name, domainid=self.user.domainid ) self.debug("Project creation with domain user: %s failed" % self.user.name) return class TestProjectInviteRequired(cloudstackTestCase): @classmethod def setUpClass(cls): cls.testClient = super(TestProjectInviteRequired, cls).getClsTestClient() cls.api_client = cls.testClient.getApiClient() cls.testdata = cls.testClient.getParsedTestDataConfig() cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests()) cls.testdata['mode'] = cls.zone.networktype # Create domains, account etc. cls.domain = get_domain(cls.api_client) # Verify 'project.invite.required' is set to false configs = Configurations.list( cls.api_client, name='project.invite.required' ) if not isinstance(configs, list): raise unittest.SkipTest("The 'project.invite.required' is not found in global configs") elif (configs[0].value).lower() != 'false': raise unittest.SkipTest("'project.invite.required' should be false") cls.account = Account.create( cls.api_client, cls.testdata["account"], admin=True, domainid=cls.domain.id ) cls.user = Account.create( cls.api_client, cls.testdata["user"], admin=True, domainid=cls.domain.id ) cls._cleanup = [cls.account, cls.user] return @classmethod def tearDownClass(cls): try: #Cleanup resources used cleanup_resources(cls.api_client, cls._cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return def setUp(self): self.apiclient = self.testClient.getApiClient() self.dbclient = self.testClient.getDbConnection() self.cleanup = [] return def tearDown(self): try: #Clean up, terminate the created accounts, domains etc cleanup_resources(self.apiclient, self.cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return @attr(tags=["advanced", "basic", "sg", "eip", "advancedns"], required_hardware="false") def test_add_user_to_project(self): """Add user to project when 'project.invite.required' is false""" # Validate the following: # 1. Create a Project # 2. Add users to the project. Verify user is added to project # as regular user # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) self.debug("Adding %s user to project: %s" % ( self.user.name, project.name )) # Add user to the project project.addAccount( self.apiclient, self.user.name, self.user.user[0].email ) # listProjectAccount to verify the user is added to project or not accounts_reponse = Project.listAccounts( self.apiclient, projectid=project.id, account=self.user.name, ) self.debug(accounts_reponse) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.role, 'Regular', "Newly added user is not added as a regular user" ) return class TestProjectInviteRequiredTrue(cloudstackTestCase): @classmethod def setUpClass(cls): cls.testClient = super(TestProjectInviteRequiredTrue, cls).getClsTestClient() cls.api_client = cls.testClient.getApiClient() cls.testdata = cls.testClient.getParsedTestDataConfig() cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests()) cls.testdata['mode'] = cls.zone.networktype # Create domains, account etc. cls.domain = get_domain(cls.api_client) # Verify 'project.invite.required' is set to true configs = Configurations.list( cls.api_client, name='project.invite.required' ) if not isinstance(configs, list): raise unittest.SkipTest("The 'project.invite.required' is not found in global configs") elif (configs[0].value).lower() != 'true': raise unittest.SkipTest("'project.invite.required' should be true") cls.account = Account.create( cls.api_client, cls.testdata["account"], admin=True, domainid=cls.domain.id ) cls.user = Account.create( cls.api_client, cls.testdata["user"], admin=True, domainid=cls.domain.id ) cls._cleanup = [cls.account, cls.user] return @classmethod def tearDownClass(cls): try: #Cleanup resources used cleanup_resources(cls.api_client, cls._cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return def setUp(self): self.apiclient = self.testClient.getApiClient() self.dbclient = self.testClient.getDbConnection() self.cleanup = [] return def tearDown(self): try: #Clean up, terminate the created accounts, domains etc cleanup_resources(self.apiclient, self.cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return @attr(configuration = "project.invite.required") @attr(tags=["advanced", "basic", "sg", "eip", "advancedns"], required_hardware="false") def test_add_user_to_project(self): """Add user to project when 'project.invite.required' is true""" # Validate the following: # 1. Create a Project # 2. Add users to the project. verify user is shown in pending state # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) self.debug("Adding %s user to project: %s" % ( self.user.name, project.name )) # Add user to the project project.addAccount( self.apiclient, self.user.name, self.user.user[0].email ) # listProjectAccount to verify the user is added to project or not accounts_reponse = ProjectInvitation.list( self.apiclient, state='Pending', account=self.user.name, domainid=self.user.domainid ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.state, 'Pending', "Newly added user is not added as a regular user" ) return class TestProjectInviteTimeout(cloudstackTestCase): @classmethod def setUpClass(cls): cls.testClient = super(TestProjectInviteTimeout, cls).getClsTestClient() cls.api_client = cls.testClient.getApiClient() cls.testdata = cls.testClient.getParsedTestDataConfig() cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests()) cls.testdata['mode'] = cls.zone.networktype # Create domains, account etc. cls.domain = get_domain(cls.api_client) # Verify 'project.invite.required' is set to true configs = Configurations.list( cls.api_client, name='project.invite.required' ) if not isinstance(configs, list): raise unittest.SkipTest("The 'project.invite.required' is not found in global configs") elif (configs[0].value).lower() != 'true': raise unittest.SkipTest("'project.invite.required' should be true") # Verify 'project.invite.timeout' is set to 300 configs = Configurations.list( cls.api_client, name='project.invite.timeout' ) if not isinstance(configs, list): raise unittest.SkipTest("The 'project.invite.timeout' is not found in global configs") elif int(configs[0].value) != cls.testdata["configs"]["project.invite.timeout"]: raise unittest.SkipTest("'project.invite.timeout' should be: %s " % cls.testdata["configs"]["project.invite.timeout"]) cls.config = configs[0] cls.account = Account.create( cls.api_client, cls.testdata["account"], admin=True, domainid=cls.domain.id ) cls.user = Account.create( cls.api_client, cls.testdata["user"], admin=True, domainid=cls.domain.id ) cls._cleanup = [cls.account, cls.user] return @classmethod def tearDownClass(cls): try: #Cleanup resources used cleanup_resources(cls.api_client, cls._cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return def setUp(self): self.apiclient = self.testClient.getApiClient() self.dbclient = self.testClient.getDbConnection() self.cleanup = [] return def tearDown(self): try: #Clean up, terminate the created accounts, domains etc cleanup_resources(self.apiclient, self.cleanup) except Exception as e: raise Exception("Warning: Exception during cleanup : %s" % e) return @attr(configuration = "project.invite.timeout") @attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"]) def test_01_invitation_timeout(self): """Test global config project invitation timeout""" # Validate the following: # 1. Set configuration to 5 mins # 2. Create a Project # 3. Add users to the project # 4. As a user accept invitation within 5 mins. Verify invitation is # accepted and user become regular user of project # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) self.debug("Adding %s user to project: %s" % ( self.user.name, project.name )) # Add user to the project project.addAccount( self.apiclient, self.user.name, self.user.user[0].email ) # listProjectAccount to verify the user is added to project or not accounts_reponse = ProjectInvitation.list( self.apiclient, state='Pending', account=self.user.name, domainid=self.user.domainid ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.state, 'Pending', "Newly added user is not added as a regular user" ) # Accept the invite ProjectInvitation.update( self.apiclient, projectid=project.id, accept=True, account=self.user.name ) self.debug( "Accepting project invitation for project: %s user: %s" % ( project.name, self.user.name )) # listProjectAccount to verify the user is added to project or not accounts_reponse = Project.listAccounts( self.apiclient, projectid=project.id, account=self.user.name, ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.role, 'Regular', "Newly added user is not added as a regular user" ) return @attr(configuration = "project.invite.timeout") @attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"]) def test_02_invitation_timeout_after_expiry(self): """Test global config project invitation timeout""" # Validate the following: # 1. Set configuration to 5 mins # 2. Create a Project # 3. Add users to the project # 4. As a user accept invitation after 5 mins. Verify invitation is # not accepted and is shown as expired # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) self.debug("Adding %s user to project: %s" % ( self.user.name, project.name )) # Add user to the project project.addAccount( self.apiclient, self.user.name, self.user.email ) # listProjectAccount to verify the user is added to project or not accounts_reponse = ProjectInvitation.list( self.apiclient, state='Pending', account=self.user.name, domainid=self.user.domainid ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.state, 'Pending', "Newly added user is not added as a regular user" ) # sleep for 'project.invite.timeout' * 2 interval to wait for invite # to expire time.sleep(int(self.config.value) * 2) with self.assertRaises(Exception): # Accept the invite ProjectInvitation.update( self.apiclient, projectid=project.id, accept=True, account=self.user.name ) self.debug( "Accepting invitation after expiry project: %s user: %s" % ( project.name, self.user.name )) # listProjectAccount to verify the user is added to project or not accounts_reponse = ProjectInvitation.list( self.apiclient, account=self.user.name, domainid=self.user.domainid ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.state, 'Expired', "Newly added user is not added as a regular user" ) return @attr(configuration = "project.invite.timeout") @attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"]) def test_03_invite_after_expiry(self): """Test global config project invitation timeout""" # Validate the following: # 1. Set configuration to 5 mins # 2. Create a Project # 3. Add users to the project # 4. As a user accept invitation after 5 mins. # 5. Resend the invitation # 6. Verify invitation is sent again # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) self.debug("Adding %s user to project: %s" % ( self.user.name, project.name )) # Add user to the project project.addAccount( self.apiclient, self.user.name, self.user.email ) # listProjectAccount to verify the user is added to project or not accounts_reponse = ProjectInvitation.list( self.apiclient, state='Pending', account=self.user.name, domainid=self.user.domainid ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.state, 'Pending', "Newly added user is not added as a regular user" ) # sleep for 'project.invite.timeout' * 2 interval to wait for invite # to expire time.sleep(int(self.config.value) * 2) self.debug("Adding %s user again to project: %s" % ( self.user.name, project.name )) # Add user to the project project.addAccount( self.apiclient, self.user.name, self.user.email ) # listProjectAccount to verify the user is added to project or not accounts_reponse = ProjectInvitation.list( self.apiclient, state='Pending', account=self.user.name, domainid=self.user.domainid ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.state, 'Pending', "Newly added user is not added as a regular user" ) return @attr(configuration = "project.invite.timeout") @attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"]) def test_04_decline_invitation(self): """Test decline invitation""" # Validate the following: # 1. Set configuration to 5 mins # 2. Create a Project # 3. Add users to the project # 4. As a user decline invitation within 5 mins. # 5. Verify invitation is rejected and user doesn't become regular # user. # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) self.debug("Adding %s user to project: %s" % ( self.user.name, project.name )) # Add user to the project project.addAccount( self.apiclient, self.user.name, self.user.email ) # listProjectAccount to verify the user is added to project or not accounts_reponse = ProjectInvitation.list( self.apiclient, state='Pending', account=self.user.name, domainid=self.user.domainid ) self.assertEqual( isinstance(accounts_reponse, list), True, "Check for a valid list accounts response" ) self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) account = accounts_reponse[0] self.assertEqual( account.state, 'Pending', "Newly added user is not added as a regular user" ) # Accept the invite ProjectInvitation.update( self.apiclient, projectid=project.id, accept=False, account=self.user.name ) self.debug( "Declining invitation for project: %s user: %s" % ( project.name, self.user.name )) # listProjectAccount to verify the user is added to project or not accounts_reponse = Project.listAccounts( self.apiclient, projectid=project.id, account=self.user.name, ) self.assertEqual( accounts_reponse, None, "Check for a valid list accounts response" ) return def test_09_invite_to_project_by_email(self): """Test invite user to project by email""" # Validate the following: # 1. Set configuration to 5 mins # 2. Create a Project # 3. Add users to the project # 4. As a user decline invitation within 5 mins. # 5. Verify invitation is rejected and user doesn't become regular # user. # Verify 'project.invite.required' is set to false configs = Configurations.list( self.apiclient, name='project.invite.timeout' ) self.assertEqual( isinstance(configs, list), True, "Check for a valid list configurations response" ) config = configs[0] self.assertEqual( int(config.value), self.testdata["configs"]["project.invite.timeout"], "'project.invite.timeout' should be %s" % self.testdata["configs"]["project.invite.timeout"] ) # Create project as a domain admin project = Project.create( self.apiclient, self.testdata["project"], account=self.account.name, domainid=self.account.domainid ) # Cleanup created project at end of test self.cleanup.append(project) self.debug("Created project with domain admin with ID: %s" % project.id) list_projects_reponse = Project.list( self.apiclient, id=project.id, listall=True ) self.assertEqual( isinstance(list_projects_reponse, list), True, "Check for a valid list projects response" ) list_project = list_projects_reponse[0] self.assertNotEqual( len(list_projects_reponse), 0, "Check list project response returns a valid project" ) self.assertEqual( project.name, list_project.name, "Check project name from list response" ) self.debug("Adding user with email: %s to project: %s" % ( self.user.email, project.name )) # Add user to the project project.addAccount( self.apiclient, email=self.user.user[0].email ) # Fetch the latest mail sent to user mail_content = fetch_latest_mail( self.testdata["mail_account"], from_mail=self.user.user[0].email ) return
40.453354
104
0.439982
4,182
52,468
5.45935
0.062889
0.03101
0.040778
0.025404
0.911568
0.90088
0.889405
0.881827
0.866585
0.857956
0
0.004607
0.495292
52,468
1,296
105
40.484568
0.857558
0.106999
0
0.807216
0
0
0.123768
0.018299
0
0
0
0
0.06701
1
0.029897
false
0
0.009278
0
0.074227
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
2cb978422e97f0f0164749c4af00d63d584a415c
134
py
Python
trainer/__init__.py
bhadreshpsavani/TAPER-EHR
ab938749756fcaaef52a7002a074421f483e3562
[ "MIT" ]
12
2020-04-10T02:24:20.000Z
2021-11-09T22:52:24.000Z
trainer/__init__.py
bhadreshpsavani/TAPER-EHR
ab938749756fcaaef52a7002a074421f483e3562
[ "MIT" ]
7
2020-05-03T10:03:29.000Z
2022-02-09T23:38:21.000Z
trainer/__init__.py
bhadreshpsavani/TAPER-EHR
ab938749756fcaaef52a7002a074421f483e3562
[ "MIT" ]
10
2020-06-14T09:37:35.000Z
2022-02-04T22:21:16.000Z
from .trainer import * from .seqcode_trainer import * from .classification_trainer import * from .text_summarization_trainer import *
26.8
41
0.820896
16
134
6.625
0.4375
0.490566
0.481132
0
0
0
0
0
0
0
0
0
0.119403
134
4
42
33.5
0.898305
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
2cccaa0b388d1a46f3b36dafb92f1824ef5b01ca
95
py
Python
app/routes/__init__.py
ericduwe/python-newsfeed
a82243cb604f56de8a3dc19848e774abd793eec9
[ "MIT" ]
1
2021-12-20T00:54:38.000Z
2021-12-20T00:54:38.000Z
app/routes/__init__.py
ericduwe/python-newsfeed
a82243cb604f56de8a3dc19848e774abd793eec9
[ "MIT" ]
7
2021-05-31T18:36:56.000Z
2021-06-06T09:22:46.000Z
app/routes/__init__.py
andrewbyoo/python-newsfeed
ab2f24c32836309918d0ee1996d1f9ef6a96b9df
[ "MIT" ]
1
2021-02-17T16:15:40.000Z
2021-02-17T16:15:40.000Z
from .home import bp as home from .dashboard import bp as dashboard from .api import bp as api
23.75
38
0.778947
18
95
4.111111
0.388889
0.324324
0.405405
0
0
0
0
0
0
0
0
0
0.189474
95
3
39
31.666667
0.961039
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
e2dd865565cc0a9452c33499d4dfeab6f1cf3521
38,173
py
Python
mangopay/migrations/0001_initial.py
sladinji/blousebrothers
461de3ba011c0aaed3f0014136c4497b6890d086
[ "MIT" ]
1
2022-01-27T11:58:10.000Z
2022-01-27T11:58:10.000Z
mangopay/migrations/0001_initial.py
sladinji/blousebrothers
461de3ba011c0aaed3f0014136c4497b6890d086
[ "MIT" ]
5
2021-03-19T00:01:54.000Z
2022-03-11T23:46:21.000Z
mangopay/migrations/0001_initial.py
sladinji/blousebrothers
461de3ba011c0aaed3f0014136c4497b6890d086
[ "MIT" ]
null
null
null
# -*- coding: utf-8 -*- # Generated by Django 1.9.7 on 2016-11-09 16:28 from __future__ import unicode_literals from decimal import Decimal from django.conf import settings from django.db import migrations, models import django.db.models.deletion import django_countries.fields import django_filepicker.models import djmoney.models.fields import jsonfield.fields import localflavor.generic.models class Migration(migrations.Migration): initial = True dependencies = [ migrations.swappable_dependency(settings.AUTH_USER_MODEL), ] operations = [ migrations.CreateModel( name='MangoPayBankAccount', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('address', models.CharField(max_length=254)), ('account_type', models.CharField(choices=[('BI', 'BIC & IBAN'), ('US', 'Local US Format'), ('O', 'Other')], default='BI', max_length=2)), ('iban', localflavor.generic.models.IBANField(blank=True, max_length=34, null=True)), ('bic', localflavor.generic.models.BICField(blank=True, max_length=11, null=True)), ('country', django_countries.fields.CountryField(blank=True, max_length=2, null=True)), ('account_number', models.CharField(blank=True, max_length=15, null=True)), ('aba', models.CharField(blank=True, max_length=9, null=True)), ('deposit_account_type', models.CharField(blank=True, choices=[('CHECKING', 'Checking'), ('SAVINGS', 'Savings')], max_length=8, null=True)), ], ), migrations.CreateModel( name='MangoPayCard', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('expiration_date', models.CharField(blank=True, max_length=4, null=True)), ('alias', models.CharField(blank=True, max_length=16, null=True)), ('is_active', models.BooleanField(default=False)), ('is_valid', models.NullBooleanField()), ], ), migrations.CreateModel( name='MangoPayCardRegistration', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('mangopay_card', models.OneToOneField(blank=True, null=True, on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_card_registration', to='mangopay.MangoPayCard')), ], ), migrations.CreateModel( name='MangoPayDocument', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('type', models.CharField(choices=[('IP', 'IDENTITY_PROOF'), ('RP', 'REGISTRATION_PROOF'), ('AA', 'ARTICLES_OF_ASSOCIATION'), ('SD', 'SHAREHOLDER_DECLARATION'), ('AP', 'ADDRESS_PROOF')], max_length=2)), ('status', models.CharField(blank=True, choices=[('C', 'CREATED'), ('A', 'VALIDATION_ASKED'), ('V', 'VALIDATED'), ('R', 'REFUSED')], max_length=1, null=True)), ('refused_reason_message', models.CharField(blank=True, max_length=255, null=True)), ], ), migrations.CreateModel( name='MangoPayPage', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('file', django_filepicker.models.FPUrlField(max_length=255)), ('document', models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_pages', to='mangopay.MangoPayDocument')), ], ), migrations.CreateModel( name='MangoPayPayIn', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('execution_date', models.DateTimeField(blank=True, null=True)), ('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)), ('debited_funds_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)), ('debited_funds', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)), ('fees_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)), ('result_code', models.CharField(blank=True, max_length=6, null=True)), ('fees', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)), ('type', models.CharField(choices=[('bank-wire', 'Pay in by BankWire'), ('card-web', 'Pay in by card via web')], max_length=10)), ('secure_mode_redirect_url', models.URLField(blank=True, null=True)), ('wire_reference', models.CharField(blank=True, max_length=50, null=True)), ('mangopay_bank_account', jsonfield.fields.JSONField(blank=True, null=True)), ('mangopay_card', models.ForeignKey(blank=True, null=True, on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payins', to='mangopay.MangoPayCard')), ], ), migrations.CreateModel( name='MangoPayPayOut', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('execution_date', models.DateTimeField(blank=True, null=True)), ('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)), ('debited_funds_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)), ('debited_funds', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)), ('fees_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)), ('fees', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)), ('mangopay_bank_account', models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payouts', to='mangopay.MangoPayBankAccount')), ], ), migrations.CreateModel( name='MangoPayRefund', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('execution_date', models.DateTimeField(blank=True, null=True)), ('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)), ('result_code', models.CharField(blank=True, max_length=6, null=True)), ('mangopay_pay_in', models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_refunds', to='mangopay.MangoPayPayIn')), ], ), migrations.CreateModel( name='MangoPayTransfer', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('debited_funds_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)), ('debited_funds', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)), ('execution_date', models.DateTimeField(blank=True, null=True)), ('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)), ('result_code', models.CharField(blank=True, max_length=6, null=True)), ], ), migrations.CreateModel( name='MangoPayUser', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('create_timestamp', models.DateTimeField(auto_now_add=True, null=True)), ('last_edit_timestamp', models.DateTimeField(auto_now=True, null=True)), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('type', models.CharField(choices=[('N', 'Natural User'), ('B', 'BUSINESS'), ('O', 'ORGANIZATION')], max_length=1, null=True)), ('first_name', models.CharField(blank=True, max_length=99, null=True)), ('last_name', models.CharField(blank=True, max_length=99, null=True)), ('email', models.EmailField(blank=True, max_length=254, null=True)), ('birthday', models.DateField(blank=True, null=True)), ('country_of_residence', django_countries.fields.CountryField(max_length=2)), ('nationality', django_countries.fields.CountryField(max_length=2)), ('address', models.CharField(blank=True, max_length=254, null=True)), ], ), migrations.CreateModel( name='MangoPayWallet', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('mangopay_id', models.PositiveIntegerField(blank=True, null=True)), ('currency', models.CharField(default='EUR', max_length=3)), ], ), migrations.CreateModel( name='MangoPayLegalUser', fields=[ ('mangopayuser_ptr', models.OneToOneField(auto_created=True, on_delete=django.db.models.deletion.CASCADE, parent_link=True, primary_key=True, serialize=False, to='mangopay.MangoPayUser')), ('business_name', models.CharField(max_length=254)), ('generic_business_email', models.EmailField(max_length=254)), ('headquaters_address', models.CharField(blank=True, max_length=254, null=True)), ], bases=('mangopay.mangopayuser',), ), migrations.CreateModel( name='MangoPayNaturalUser', fields=[ ('mangopayuser_ptr', models.OneToOneField(auto_created=True, on_delete=django.db.models.deletion.CASCADE, parent_link=True, primary_key=True, serialize=False, to='mangopay.MangoPayUser')), ('occupation', models.CharField(blank=True, max_length=254, null=True)), ('income_range', models.SmallIntegerField(blank=True, choices=[(1, '0 - 1,500'), (2, '1,500 - 2,499'), (3, '2,500 - 3,999'), (4, '4,000 - 7,499'), (5, '7,500 - 9,999'), (6, '10,000 +')], null=True)), ], bases=('mangopay.mangopayuser',), ), migrations.AddField( model_name='mangopaywallet', name='mangopay_user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_wallets', to='mangopay.MangoPayUser'), ), migrations.AddField( model_name='mangopayuser', name='user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_users', to=settings.AUTH_USER_MODEL), ), migrations.AddField( model_name='mangopaytransfer', name='mangopay_credited_wallet', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_credited_wallets', to='mangopay.MangoPayWallet'), ), migrations.AddField( model_name='mangopaytransfer', name='mangopay_debited_wallet', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_debited_wallets', to='mangopay.MangoPayWallet'), ), migrations.AddField( model_name='mangopayrefund', name='mangopay_user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_refunds', to='mangopay.MangoPayUser'), ), migrations.AddField( model_name='mangopaypayout', name='mangopay_user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payouts', to='mangopay.MangoPayUser'), ), migrations.AddField( model_name='mangopaypayout', name='mangopay_wallet', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payouts', to='mangopay.MangoPayWallet'), ), migrations.AddField( model_name='mangopaypayin', name='mangopay_user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payins', to='mangopay.MangoPayUser'), ), migrations.AddField( model_name='mangopaypayin', name='mangopay_wallet', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payins', to='mangopay.MangoPayWallet'), ), migrations.AddField( model_name='mangopaydocument', name='mangopay_user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_documents', to='mangopay.MangoPayUser'), ), migrations.AddField( model_name='mangopaycardregistration', name='mangopay_user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_card_registrations', to='mangopay.MangoPayUser'), ), migrations.AddField( model_name='mangopaybankaccount', name='mangopay_user', field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_bank_accounts', to='mangopay.MangoPayUser'), ), migrations.CreateModel( name='MangoPayPayInBankWire', fields=[ ], options={ 'proxy': True, }, bases=('mangopay.mangopaypayin',), ), migrations.CreateModel( name='MangoPayPayInByCard', fields=[ ], options={ 'proxy': True, }, bases=('mangopay.mangopaypayin',), ), ]
149.113281
4,592
0.593325
4,281
38,173
5.228451
0.1516
0.016798
0.011259
0.019658
0.891838
0.872224
0.853728
0.82509
0.819908
0.817942
0
0.006723
0.162287
38,173
255
4,593
149.698039
0.693227
0.001755
0
0.611336
1
0
0.444217
0.024827
0
0
0
0
0
1
0
false
0
0.040486
0
0.05668
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
1
1
0
0
0
0
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
9
1a490eeff41c11bb45b3d9c7ae7aa4ef9b58eb2d
40
py
Python
src/lib/warnings.py
DTenore/skulpt
098d20acfb088d6db85535132c324b7ac2f2d212
[ "MIT" ]
2,671
2015-01-03T08:23:25.000Z
2022-03-31T06:15:48.000Z
src/lib/warnings.py
wakeupmuyunhe/skulpt
a8fb11a80fb6d7c016bab5dfe3712517a350b347
[ "MIT" ]
972
2015-01-05T08:11:00.000Z
2022-03-29T13:47:15.000Z
src/lib/warnings.py
wakeupmuyunhe/skulpt
a8fb11a80fb6d7c016bab5dfe3712517a350b347
[ "MIT" ]
845
2015-01-03T19:53:36.000Z
2022-03-29T18:34:22.000Z
import _sk_fail; _sk_fail._("warnings")
20
39
0.775
6
40
4.333333
0.666667
0.461538
0
0
0
0
0
0
0
0
0
0
0.075
40
1
40
40
0.702703
0
0
0
0
0
0.2
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
1
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
1a6bd7e23e61b82e558c3252ca9559b0da80109c
178
py
Python
lattice/nets/__init__.py
WillemGispen/Lattice-QuaRL
8bdc8bfe2deb2a673249bb7ed9659d2e5819d89e
[ "MIT" ]
4
2021-04-19T10:11:40.000Z
2021-04-21T13:38:20.000Z
lattice/nets/__init__.py
WillemGispen/Lattice-QuaRL
8bdc8bfe2deb2a673249bb7ed9659d2e5819d89e
[ "MIT" ]
null
null
null
lattice/nets/__init__.py
WillemGispen/Lattice-QuaRL
8bdc8bfe2deb2a673249bb7ed9659d2e5819d89e
[ "MIT" ]
2
2021-04-19T13:22:26.000Z
2021-09-07T14:44:57.000Z
from .periodic_cnn import PeriodicCNN from .q_periodic_cnn import QPeriodicCNN from .heisenberg_periodic_cnn import HeisenbergPeriodicCNN from .passive_rates import PassiveRates
35.6
58
0.88764
22
178
6.909091
0.545455
0.217105
0.335526
0
0
0
0
0
0
0
0
0
0.089888
178
4
59
44.5
0.938272
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0.25
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
1
1
0
1
0
0
8
46b87f330b093cde0d39dcb4587ee1e4ccd9537c
11
py
Python
test/login.py
a1589249266/python-learn
9bda9581d750f654f9d66150c3a598a282210e79
[ "BSD-3-Clause" ]
null
null
null
test/login.py
a1589249266/python-learn
9bda9581d750f654f9d66150c3a598a282210e79
[ "BSD-3-Clause" ]
null
null
null
test/login.py
a1589249266/python-learn
9bda9581d750f654f9d66150c3a598a282210e79
[ "BSD-3-Clause" ]
null
null
null
a=10 b=20
2.75
4
0.545455
4
11
1.5
1
0
0
0
0
0
0
0
0
0
0
0.5
0.272727
11
3
5
3.666667
0.25
0
0
0
0
0
0
0
0
0
0
0
0
1
0
false
0
0
0
0
0
1
1
1
null
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
1
1
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
200a7e6408fd1c4a8c9dc10039aae839ef8c588d
128,092
py
Python
tests/databases/generic/v1_test.py
RNAcentral/rnacentral-import-pipeline
238e573440c72581a051b16c15f56fcd25bece74
[ "Apache-2.0" ]
1
2018-08-09T14:41:16.000Z
2018-08-09T14:41:16.000Z
tests/databases/generic/v1_test.py
RNAcentral/rnacentral-import-pipeline
238e573440c72581a051b16c15f56fcd25bece74
[ "Apache-2.0" ]
60
2015-02-04T16:43:53.000Z
2022-01-27T10:28:43.000Z
tests/databases/generic/v1_test.py
RNAcentral/rnacentral-import-pipeline
238e573440c72581a051b16c15f56fcd25bece74
[ "Apache-2.0" ]
null
null
null
# -*- coding: utf-8 -*- """ Copyright [2009-2017] EMBL-European Bioinformatics Institute Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. """ import json import attr import pytest from rnacentral_pipeline.databases import data as dat from rnacentral_pipeline.databases.helpers import publications as pub from rnacentral_pipeline.databases.generic import v1 @pytest.mark.parametrize( "filename,taxids", [ # pylint: disable=no-member ("data/json-schema/v020/flybase.json", [7227, 7227, 7227, 7227, 7227]), ("data/json-schema/v020/flybase-scaRNA.json", [7227]), ("data/json-schema/v020/lincipedia.json", [9606]), ("data/json-schema/v020/tarbase.json", [9606]), ("data/json-schema/v020/pombase.json", [4896]), ("data/json-schema/v020/lncbook.json", [9606, 9606, 9606]), ], ) def test_can_extract_taxid(filename, taxids): with open(filename, "r") as raw: data = json.load(raw)["data"] assert [v1.taxid(e) for e in data] == taxids @pytest.mark.parametrize( "filename,xrefs", [ # pylint: disable=no-member ("data/json-schema/v020/lincipedia.json", [{"NONCODE": ["NONHSAT050743"]}]), ], ) def test_can_generate_xref_data(filename, xrefs): with open(filename, "r") as raw: data = json.load(raw)["data"] assert [v1.xrefs(e) for e in data] == xrefs @pytest.mark.parametrize( "filename,synonyms", [ # pylint: disable=no-member ("data/json-schema/v020/pombase.json", {"sno52"}), ], ) def test_can_extract_gene_symbols_to_synonyms(filename, synonyms): with open(filename, "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 1 assert set(data[0].gene_synonyms) == synonyms @pytest.mark.parametrize( "filename,count", [ # pylint: disable=no-member ("data/json-schema/v020/flybase.json", 5), ("data/json-schema/v020/lincipedia.json", 1), ("data/json-schema/v020/tarbase.json", 1), ("data/json-schema/v020/lncbook.json", 3), ], ) def test_can_parse_all_data(filename, count): with open(filename, "r") as raw: data = json.load(raw) assert len(list(v1.parse(data))) == count def test_can_correctly_parse_data(): with open("data/json-schema/v020/flybase.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) data = [d for d in data if d.accession == "FLYBASE:FBtr0346876"] assert len(data) == 1 assert attr.asdict(data[0]) == attr.asdict( dat.Entry( primary_id="FBtr0346876", accession="FLYBASE:FBtr0346876", ncbi_tax_id=7227, database="FLYBASE", sequence=( "TTATATACAACCTCAACTCATATGGGACTACCCCCTGAATTTAAGCATATTAATTAGGGG" "AGGAAAAGAAACTAACAAGGATTTTCTTAGTAGCGGCGAGCGAAAAGAAAACAGTTCAGC" "ACTAAGTCACTTTGTCTATATGGCAAATGTGAGATGCAGTGTATGGAGCGTCAATATTCT" "AGTATGAGAAATTAACGATTTAAGTCCTTCTTAAATGAGGCCATTTACCCATAGAGGGTG" "CCAGGCCCGTATAACGTTAATGATTACTAGATGATGTTTCCAAAGAGTCGTGTTGCTTGA" "TAGTGCAGCACTAAGTGGGTGGTAAACTCCATCTAAAACTAAATATAACCATGAGACCGA" "TAGTAAACAAGTACCGTGAGGGAAAGTTGAAAAGAACTCTGAATAGAGAGTTAAACAGTA" "CGTGAAACTGCTTAGAGGTTAAGCCCGATGAACCTGAATATCCGTTATGGAAAATTCATC" "ATTAAAATTGTAATATTTAAATAATATTATGAGAATAGTGTGCATTTTTTCCATATAAGG" "ACATTGTAATCTATTAGCATATACCAAATTTATCATAAAATATAACTTATAGTTTATTCC" "AATTAAATTGCTTGCATTTTAACACAGAATAAATGTTATTAATTTGATAAAGTGCTGATA" "GATTTATATGATTACAGTGCGTTAATTTTTCGGAATTATATAATGGCATAATTATCATTG" "ATTTTTGTGTTTATTATATGCACTTGTATGATTAACAATGCGAAAGATTCAGGATACCTT" "CGGGACCCGTCTTGAAACACGGACCAAGGAGTCTAACATATGTGCAAGTTATTGGGATAT" "AAACCTAATAGCGTAATTAACTTGACTAATAATGGGATTAGTTTTTTAGCTATTTATAGC" "TGCTAATTAACACAATCCCGGGGCGTTCTATATAGTTATGTATAATGTATATTTATATTA" "TTTATGCCTCTAACTGGAACGTACCTTGAGCATATATGCTGTGACCCGAAAGATGGTGAA" "CTATACTTGATCAGGTTGAAGTCAGGGGAAACCCTGATGGAAGACCGAAACAGTTCTGAC" "GTGCAAATCGATTGTCAGAATTGAGTATAGGGGCGAAAGACCAATCGAACCATCTAGTAG" "CTGGTTCCTTCCGAAGTTTCCCTCAGGATAGCTGGTGCATTTTAATATTATATAAAATAA" "TCTTATCTGGTAAAGCGAATGATTAGAGGCCTTAGGGTCGAAACGATCTTAACCTATTCT" "CAAACTTTAAATGGGTAAGAACCTTAACTTTCTTGATATGAAGTTCAAGGTTATGATATA" "ATGTGCCCAGTGGGCCACTTTTGGTAAGCAGAACTGGCGCTGTGGGATGAACCAAACGTA" "ATGTTACGGTGCCCAAATTAACAACTCATGCAGATACCATGAAAGGCGTTGGTTGCTTAA" "AACAGCAGGACGGTGATCATGGAAGTCGAAATCCGCTAAGGAGTGTGTAACAACTCACCT" "GCCGAAGCAACTAGCCCTTAAAATGGATGGCGCTTAAGTTGTATACCTATACATTACCGC" "TAAAGTAGATGATTTATATTACTTGTGATATAAATTTTGAAACTTTAGTGAGTAGGAAGG" "TACAATGGTATGCGTAGAAGTGTTTGGCGTAAGCCTGCATGGAGCTGCCATTGGTACAGA" "TCTTGGTGGTAGTAGCAAATAATCGAATGAGACCTTGGAGGACTGAAGTGGAGAAGGGTT" "TCGTGTGAACAGTGGTTGATCACGAGTTAGTCGGTCCTAAGTTCAAGGCGAAAGCCGAAA" "ATTTTCAAGTAAAACAAAAATGCCTAACTATATAAACAAAGCGAATTATAATACACTTGA" "ATAATTTTGAACGAAAGGGAATACGGTTCCAATTCCGTAACCTGTTGAGTATCCGTTTGT" "TATTAAATATGGGCCTCGTGCTCATCCTGGCAACAGGAACGACCATAAAGAAGCCGTCGA" "GAGATATCGGAAGAGTTTTCTTTTCTGTTTTATAGCCGTACTACCATGGAAGTCTTTCGC" "AGAGAGATATGGTAGATGGGCTAGAAGAGCATGACATATACTGTTGTGTCGATATTTTCT" "CCTCGGACCTTGAAAATTTATGGTGGGGACACGCAAACTTCTCAACAGGCCGTACCAATA" "TCCGCAGCTGGTCTCCAAGGTGAAGAGTCTCTAGTCGATAGAATAATGTAGGTAAGGGAA" "GTCGGCAAATTAGATCCGTAACTTCGGGATAAGGATTGGCTCTGAAGATTGAGATAGTCG" "GGCTTGATTGGGAAACAATAACATGGTTTATGTGCTCGTTCTGGGTAAATAGAGTTTCTA" "GCATTTATGTTAGTTACTTGTTCCCCGGATAGTTTAGTTACGTAGCCAATTGTGGAACTT" "TCTTGCTAAAATTTTTAAGAATACTATTTGGGTTAAACCAATTAGTTCTTATTAATTATA" "ACGATTATCAATTAACAATCAATTCAGAACTGGCACGGACTTGGGGAATCCGACTGTCTA" "ATTAAAACAAAGCATTGTGATGGCCCTAGCGGGTGTTGACACAATGTGATTTCTGCCCAG" "TGCTCTGAATGTCAAAGTGAAGAAATTCAAGTAAGCGCGGGTCAACGGCGGGAGTAACTA" "TGACTCTCTTAAGGTAGCCAAATGCCTCGTCATCTAATTAGTGACGCGCATGAATGGATT" "AACGAGATTCCTACT" ), regions=[ dat.SequenceRegion( chromosome="rDNA", strand=1, exons=[dat.Exon(start=46771, stop=49485)], assembly_id="R6", coordinate_system=dat.CoordinateSystem.from_name( "1-start, fully-closed" ), ), ], rna_type="SO:0000252", url="http://flybase.org/reports/FBtr0346876.html", seq_version="1", note_data={"url": "http://flybase.org/reports/FBtr0346876.html"}, xref_data={ "REFSEQ": ["NR_133553.1"], }, species="Drosophila melanogaster", common_name="fruit fly", lineage=( "Eukaryota; Metazoa; Ecdysozoa; Arthropoda; Hexapoda; " "Insecta; Pterygota; Neoptera; Holometabola; Diptera; Brachycera; " "Muscomorpha; Ephydroidea; Drosophilidae; Drosophila; Sophophora; " "Drosophila melanogaster" ), gene="FBgn0267497", locus_tag="Dmel_CR45837", description="Drosophila melanogaster (fruit fly) 28S ribosomal RNA:CR45837", gene_synonyms=["CR45837", "28SrRNA:CR45837"], ) ) def test_can_correctly_parse_lncipedia_data(): with open("data/json-schema/v020/lncipedia-5.0.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 1 assert attr.asdict(data[0]) == attr.asdict( dat.Entry( primary_id="lnc-CLEC18B-3:5", accession="LNCIPEDIA:lnc-CLEC18B-3:5", ncbi_tax_id=9606, database="LNCIPEDIA", sequence=( "GTAGATCATCATCATAACAGCTCCCAGTGAATCAATGCCTCCCTGCATCCACACCCCTT" "TGTAACATGATATTGTTGCTCTTCCCATCAAGAAATGGTCTCTTTTGGCCGGGCACAGTA" "GCTCACGTCATCCCAGCACTTTGGGAGGCTGAGGCAGGCAGATGGCTTGAGTGTAACAAT" "ATGTTGAATTTGCCATGGGCCTTTAAAGCTTCAATGTTGTGAAGAGCTCTGCATGAAATT" "TTAAAGAGACTGGACCTTTCATCTGCACAACAGCAGGGCACCTCGCTATAGGGACAAGAA" "AGGAAGAGAGAGAGAGAACATTTCTGAAGTAATAGTGAAAAATAACAGCAGAAGCAATTA" "TTTCATCAAAGATTGCAGGGAGAGGCTCCTCCGTGCTCCTGAGAGGCCGAACACAGGGTC" "GCCAGCACAGCTTACTGCTCGGTGTCTCCTGAGCCACAGAGGAAGACGTGGCAGGAGCAC" "CTGGTGCTAATATATATTCATGTCTATGGCAATGCCGACCATCTGGCTGGTCTGAACCAG" "GATAAAAGTGAAGAATTCCTCTGTGAAGACCCAGCTCTTTCTTTGGCTCCTTTTTTGAAG" "CCATCTTTGCTCTGCTCTCCTCTGCTGCCCAGAAAGTTCCAGAGTGAAGCTCAGCTCTAG" "ATGAACAAAAACTGGTTGAGTCCAGAGATGCCTGAGTTGGAGATGAACCTTGCAAACTTT" "CCTCATTACCATACTAAAAACCCCACCCAGGAAGGAGCTTATCTGCCATTTCCTACACAT" "GTGACATATGGAGAAGCATGATCAGCTACTTCACAGTCTCTGCCTTTACTCTGCCTCCGC" "ATACAATGGCTCAGCCAACTAGCCTAACGAAAGCTGTTTTCACCATTGTTTGGGAGGTAC" "TGCTTTGGGAAACTGCCCCAGCTGTCCTCCTTACTTGTTGTAGGTAATAAAATCCCTTTG" "TTAAATC" ), regions=[ dat.SequenceRegion( chromosome="16", strand=-1, exons=[ dat.Exon(start=74226290, stop=74226625), dat.Exon(start=74239803, stop=74240064), dat.Exon(start=74244204, stop=74244404), dat.Exon(start=74249250, stop=74249420), ], assembly_id="GRCh37", coordinate_system=dat.CoordinateSystem.from_name( "1-start, fully-closed" ), ), dat.SequenceRegion( chromosome="16", strand=-1, exons=[ dat.Exon(start=74192391, stop=74192726), dat.Exon(start=74205904, stop=74206165), dat.Exon(start=74210305, stop=74210505), dat.Exon(start=74215351, stop=74215521), ], assembly_id="GRCh38", coordinate_system=dat.CoordinateSystem.from_name( "1-start, fully-closed" ), ), ], rna_type="SO:0001877", url="https://lncipedia.org/db/transcript/lnc-CLEC18B-3:5", seq_version="1", xref_data={"NONCODE": ["NONHSAT143655"]}, note_data={"url": "https://lncipedia.org/db/transcript/lnc-CLEC18B-3:5"}, gene="lnc-CLEC18B-3", gene_synonyms=[ "ENSG00000249447", "XLOC_012007", "linc-ZFHX3-2", "ENSG00000261404.1", "AC009120.4", "OTTHUMG00000176255.2", "ENSG00000261404.5", "ENSG00000261404.6", "AC138627.1", "LOC101928035", ], # product='long non-coding RNA lnc-CLEC18B-3:5', description="Homo sapiens (human) non-protein coding lnc-CLEC18B-3:5", species="Homo sapiens", common_name="human", lineage=( "Eukaryota; Metazoa; Chordata; Craniata; " "Vertebrata; Euteleostomi; Mammalia; Eutheria; " "Euarchontoglires; Primates; Haplorrhini; Catarrhini; " "Hominidae; Homo; Homo sapiens" ), ) ) def test_can_correctly_parse_mirbase_data(): with open("data/json-schema/v020/missing-mirbase.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 2 assert attr.asdict(data[0]) == attr.asdict( dat.Entry( primary_id="MI0000612", accession="MIRBASE:MI0000612", ncbi_tax_id=10116, database="MIRBASE", sequence=( "TCTTTTGGGCGGGGGTCAAGAGCAATAACGAAAAATGTTTGTTTTTCGTAAACCGTTTTT" "CATTATTGCTCCTGACCTCCTCTCATTTGTTATAGCCA" ), regions=[], rna_type="SO:0001244", url="http://www.mirbase.org/cgi-bin/mirna_entry.pl?acc=MI0000612", seq_version="1", xref_data={ "EntrezGene": ["Mir335"], }, note_data={ "url": "http://www.mirbase.org/cgi-bin/mirna_entry.pl?acc=MI0000612" }, optional_id="rno-mir-335", description="Rattus norvegicus miR-335 stem-loop", species="Rattus norvegicus", common_name="Norway rat", lineage=( "Eukaryota; Metazoa; Chordata; Craniata; " "Vertebrata; Euteleostomi; Mammalia; Eutheria; " "Euarchontoglires; Glires; Rodentia; Myomorpha; Muroidea; " "Muridae; Murinae; Rattus; Rattus norvegicus" ), references=[ pub.reference(17604727), pub.reference(14691248), pub.reference(24275495), ], related_sequences=[ dat.RelatedSequence( sequence_id="MIRBASE:MIMAT0000575", relationship="matureProduct", coordinates=[dat.RelatedCoordinate(start=15, stop=37)], ) ], ) ) assert data[1].optional_id == "bdi-miR7720-3p" def test_can_correct_fetch_related_sequences(): with open("data/json-schema/v020/tarbase.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 1 assert attr.asdict(data[0]) == attr.asdict( dat.Entry( primary_id="hsa-miR-576-3p", accession="TARBASE:hsa-miR-576-3p", ncbi_tax_id=9606, database="TARBASE", sequence="AAGATGTGGAAAAATTGGAATC", regions=[], rna_type="SO:0000276", url="http://carolina.imis.athena-innovation.gr/diana_tools/web/index.php?r=tarbasev8%2Findex&miRNAs%5B%5D=hsa-miR-576-3p", seq_version="1", xref_data={}, note_data={ "url": "http://carolina.imis.athena-innovation.gr/diana_tools/web/index.php?r=tarbasev8%2Findex&miRNAs%5B%5D=hsa-miR-576-3p", }, gene_synonyms=["TARBASE:hsa-miR-576-3p"], description="Homo sapiens (human) hsa-miR-576-3p", species="Homo sapiens", common_name="human", lineage=( "Eukaryota; Metazoa; Chordata; Craniata; " "Vertebrata; Euteleostomi; Mammalia; Eutheria; " "Euarchontoglires; Primates; Haplorrhini; Catarrhini; " "Hominidae; Homo; Homo sapiens" ), references=[ pub.reference(22100165), pub.reference(22291592), pub.reference(22927820), pub.reference(23313552), pub.reference(23824327), ], related_sequences=[ dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000005339", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000006459", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000008282", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000008869", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000009844", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000009954", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000010803", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000011405", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000012963", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000013297", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000014216", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000014824", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000033030", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000036257", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000044459", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000046604", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000051341", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000055208", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000057608", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000058262", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000058673", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000060237", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000060339", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000062716", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000062725", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000064651", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000064726", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000065911", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000068654", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000069275", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000069667", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000070087", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000071189", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000072364", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000072803", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000073111", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000075415", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000075420", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000075539", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000077147", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000077943", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000078269", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000078596", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000080603", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000083312", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000083444", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000084112", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000086015", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000086232", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000086598", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000086758", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000087086", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000088179", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000088205", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000089154", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000089693", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000089902", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000090061", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000090612", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000090905", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000090989", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000091009", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000092201", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000092978", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000094880", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000095787", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000099246", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000099331", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000099949", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100084", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100219", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100228", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100359", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100441", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100503", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100568", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100580", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100647", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100697", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100916", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000100934", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000101193", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000101596", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000102144", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000102595", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000103319", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000104164", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000104177", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000104205", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000104343", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000104427", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000105173", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000105810", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000105983", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000106246", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000106546", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000106635", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000106772", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000107036", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000107643", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000107679", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000107798", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000107854", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108107", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108219", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108395", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108510", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108518", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108588", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108671", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000108774", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000109084", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000109685", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000110315", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000110955", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000111145", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000111262", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000111300", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000111348", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000111530", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000111639", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000111711", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000112218", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000112242", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000112245", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000112249", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000112378", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000113048", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000113732", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000114354", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000114686", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000114739", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000115524", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000115760", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000115866", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000115946", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000115966", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000116133", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000116221", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000116754", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000117139", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000117500", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000117592", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000117597", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000118058", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000118200", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000118496", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000118515", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000118620", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000118971", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000119231", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000119285", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000119383", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000119402", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000120526", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000120685", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000120694", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000120705", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000120733", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000121289", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000121454", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000121966", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000122257", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000123358", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000123374", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000124164", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000124191", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000124222", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000124523", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000124789", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000124795", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000125266", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000125755", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000125835", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000126003", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000126070", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000126214", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000126746", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000127418", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000128271", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000128573", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000128590", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000128607", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000129128", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000129595", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000130270", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000130449", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000131023", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000131238", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000131389", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000131446", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000132294", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000132300", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000132463", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000132475", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000132664", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000133706", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000134046", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000134108", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000134333", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000134532", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000134755", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000134759", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000135018", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000135387", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000135446", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000135837", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000135845", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000135966", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136161", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136238", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136240", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136279", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136436", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136450", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136754", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000136854", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000137055", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000137265", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000137449", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000137478", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000137770", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000138018", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000138138", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000138279", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000138336", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000138674", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000138685", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000138757", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000139180", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000139343", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000139496", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000139645", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000139718", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000139737", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000139921", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000140105", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000140688", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000141367", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000141564", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000141646", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000141682", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000142794", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143155", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143162", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143190", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143384", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143390", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143398", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143401", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000143569", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000144136", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000144840", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000145495", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000145780", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000145868", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000145907", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000146376", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000146433", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000146674", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000146830", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000147548", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000147854", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000148153", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000148341", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000148730", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000149289", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000149313", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000149328", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000149923", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000149925", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000150471", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000150593", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000151332", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000151532", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000151881", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000152061", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000152234", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000152926", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000152944", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153029", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153147", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153531", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153561", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153721", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153827", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153904", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000153944", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000154001", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000154124", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000155363", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000155506", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000155545", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000155561", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000155876", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000155966", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000156738", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000156875", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000157764", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000158615", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000158985", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000159398", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000160014", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000160325", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000162063", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000162302", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000162496", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000162928", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000163399", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000163902", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000163960", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164011", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164040", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164070", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164151", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164211", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164331", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164463", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164830", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000164916", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000165389", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000165671", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000165732", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000165795", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000165832", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000166225", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000166226", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000166233", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000166710", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000166747", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000166833", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000167106", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000167196", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000167548", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000167986", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000168066", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000168214", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000168487", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000168646", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000169018", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000169251", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000169564", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000170027", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000170385", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000170542", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000171105", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000171150", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000171262", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000171766", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000171940", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000172264", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000172466", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000172500", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000172869", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000172985", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173041", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173218", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173262", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173320", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173334", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173517", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173542", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173674", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000173821", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000174010", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000174106", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000174132", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000174231", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000175348", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000176422", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000176619", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000176903", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000176986", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000177963", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000178719", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000179010", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000179218", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000179295", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000181026", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000181467", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000181789", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000181904", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000183508", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000184949", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000184992", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000185238", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000185591", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000185716", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000185745", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000186174", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000187239", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000188529", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000188785", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000188895", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000188938", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196227", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196233", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196367", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196428", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196470", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196531", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196576", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196792", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000196914", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000197045", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000197111", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000197457", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000197837", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000198589", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000198648", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000198732", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000198791", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000198815", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000204366", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000204590", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000205213", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000211456", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000213066", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000213923", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000214160", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000214753", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000221968", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000227500", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000234127", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000237440", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000241685", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000242265", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000244462", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000244509", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000257315", relationship="target", evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000257923", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000266472", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000272886", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000275023", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), dat.RelatedSequence( sequence_id="ENSEMBL:ENSG00000277443", relationship="target", evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]), ), ], ) ) def test_can_correctly_find_isoforms(): filename = "data/json-schema/v020/lncipedia-with-isoforms.json" with open(filename, "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 5 data = [d for d in data if d.accession == "LNCIPEDIA:LINC01725:19"] assert len(data) == 1 assert attr.asdict(data[0]) == attr.asdict( dat.Entry( primary_id="LINC01725:19", accession="LNCIPEDIA:LINC01725:19", ncbi_tax_id=9606, database="LNCIPEDIA", sequence=( "ACCGTTGCTCAGAGTCCAGGCCGGTTAGGACCAGAGCCTACCCCGGGTGGCATGGTGATG" "ATCCAGATTCAGGAGACATGTCTGAGAAAGGATCGTTCAGACTTTTTGACCTATTTTACA" "TGAGGAATAAAGGATAGAGAATCTTCTTCCCTTCTGGTCTGACTAGGAAAGCCAGAGGGA" "GATGGTGAAGGAGACACAGAGAGAGTAAAAGAACAGACCATGCCCAGCCTCTCCACTGCA" "GGAGCTTGGAATCAGGACTGTGAGCTTCATGGAGACAAGAAACTGTGCTTTTTTTCTCCT" "TCCTGTGAATGAATCCCATTGCAGCTTTGATTGTGGTTGAATCACCTATGGAAGCCATGC" "ATCTTCAGCATGTAGCACATAATGGACACTCAGCAAATGACAACTGAATGAGCAAACTAA" "TTACTCTGACCTTGAGCAGTGACTTGTGTGACCTCTGGCAATTGGTTCACCATCTGAATC" "CCTCAGCTAGATACCTCCCTCTAATGCTGCTCCTCCATCGACAGGCATTCCTCAGCGGTC" "AGTTGTTTCCCAGCCAGAGCCCGCACTGGCACTGATGTCTGCTATTATCACTGGAGAGGC" "CCCGGGACTTCACTTGATGCTATCCCACTGGGATGACTGAGAAGAAGTAGGAGAAAATCA" "AGCAAAAGCGTGGGCTCGTCTAAGTGTTTCCTCATCTGTTTCTTGGTATCTTCCTTGCTT" "CCCTGCTTCTCCCAGCCCCAGACTTCCTTGTCTTCTCTCTTCCATCCAGAAAGACACACA" "TGCCCCTTCTAAGTATCACTTTAGGGCTGAAGTCCAAAGTCTTCTCTTAGCTGAAATTCA" "CTGTGCACTTGCCACTTGGCAGAGACTGCAAACAGCTCAGTGCGTGTTTTCATAGTCAGC" "ATTAAAATAATAATTGCCACAACACTATTAAAGTTTTCCTCATTGTTGTAACTGTTGGCA" "AAGGCAAATGTCTGGGGAGATTGACTCCCTGGAAAGCTTCATTATGCTGCGAGAATATTT" "TTGATAAAATTTCAGCAGTTCCTGACTGTCAACTTCACTATGTGGTTTTTTTTAAAGTTG" "TCCCCCACCCCTCTCTAACAGGTCCTCCAATTCACAAAAACATTCAGGTCAGTTGTTGAG" "TAACTGAATCTTTCCAAGTAATTAACAGGTAGAATTACCAGGTAGCAGGCAGTGTTTGCT" "TGTAATCCGTCAATAGTAGTTGCAGTGGGGCTAATTGTCATCTTGAGTGGCCCTGCAACC" "ACATCTAATTAAAAGTGTCAACAGAGAGTTATTTCTGTCTTTTGTTCCCACTGCTAGGTT" "GTACGTGTTTACTTCAGAAATCCAGGCTCAAAGTAAGACAGATATTTGGAACATGTGAAT" "ATACAGGAAAAACATTCCCCAGCAACTCAAAGTACGTAAAAGCATTTAGGCCTCATTCCT" "CTGTCCACCTGACTTTTTTGGTTTGTATTAGTTTATATATTCAAGGCAGATATACAGTAT" "CTGATAAATGCAAGAGGGACATGATGCCTTTTCCTAAGCAGCAAAGTTATACTTTGCCAA" "CTTGACTGGGAGCTGGGCTGAAGGGACAAAGGCAGGAGTCTTTTAAGACTCACTAACACT" "TACCTAGTAATGGCAGTGGCTGCCACTACAGCTAGGTTTCTTGCCTTTGATTCATATTCT" "TTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCT" "TTCTTTCATGCTTCACTGAACTGTTTTCCAGTTCAAGGTAGGTAGATCTGCCAAAACTAA" "AAAGCCTAGATTGCATATAGAACATGCCTGGATTTACAGAGCAAGGATGCAGGAACATAT" "TTTTCCATCAGCAGAGTCTGGGTCTTGGCTAACTTAAAGTTTTGTGACTGTTCTTGGGAT" "CAGCCCTGGGTGAAGCCTCTGTGAGGTCCAGCTGACTACTTCATTCTCATAAATACTTTC" "TTTGAAATCTC" ), regions=[ dat.SequenceRegion( chromosome="1", strand="-1", exons=[ dat.Exon(start=83801515, stop=83803251), dat.Exon(start=83849906, stop=83850022), dat.Exon(start=83860407, stop=83860546), ], assembly_id="GRCh38", coordinate_system=dat.CoordinateSystem.from_name( "1-start, fully-closed" ), ), ], rna_type="SO:0001877", url="https://lncipedia.org/db/transcript/LINC01725:19", seq_version="1", xref_data={"NONCODE": ["NONHSAT004171"]}, note_data={"url": "https://lncipedia.org/db/transcript/LINC01725:19"}, gene="LINC01725", gene_synonyms=[ "ENSG00000233008", "RP11-475O6.1", "ENSG00000233008.1", "OTTHUMG00000009930.1", "ENSG00000233008.5", "LINC01725", "LOC101927560", ], description="Homo sapiens (human) non-protein coding LINC01725:19", species="Homo sapiens", common_name="human", lineage=( "Eukaryota; Metazoa; Chordata; Craniata; " "Vertebrata; Euteleostomi; Mammalia; Eutheria; " "Euarchontoglires; Primates; Haplorrhini; Catarrhini; " "Hominidae; Homo; Homo sapiens" ), references=[], related_sequences=[ dat.RelatedSequence( sequence_id="LNCIPEDIA:LINC01725:5", relationship="isoform", ), dat.RelatedSequence( sequence_id="LNCIPEDIA:LINC01725:18", relationship="isoform", ), dat.RelatedSequence( sequence_id="LNCIPEDIA:LINC01725:17", relationship="isoform", ), dat.RelatedSequence( sequence_id="LNCIPEDIA:LINC01725:14", relationship="isoform", ), ], ) ) def test_it_treats_flybase_scaRNA_correctly(): with open("data/json-schema/v020/flybase-scaRNA.json", "rb") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 1 assert data[0].rna_type == "SO:0002095" def test_can_properly_handle_shifting_lncipedia_coordinates(): with open("data/json-schema/v020/lincipedia.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 1 assert data[0].regions == [ dat.SequenceRegion( chromosome="15", strand="-", exons=[dat.Exon(start=97665305, stop=97670289)], assembly_id="GRCh38", coordinate_system=dat.CoordinateSystem.from_name("1-start, fully-closed"), ), ] assert list(data[0].regions[0].writeable(data[0].accession)) == [ [ "LNCIPEDIA:LINC00923:10", "@15/97665305-97670289:-", "15", -1, "GRCh38", 1, 97665305, 97670289, ] ] def test_can_properly_handle_shifting_mirbase_coordinates(): with open("data/json-schema/v020/shift-mirbase.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 1 assert len(data[0].regions) == 1 assert attr.asdict(data[0].regions[0]) == attr.asdict( dat.SequenceRegion( chromosome="9", strand="+", exons=[dat.Exon(start=136670602, stop=136670686)], assembly_id="GRCh38", coordinate_system=dat.CoordinateSystem.from_name("1-start, fully-closed"), ) ) assert list(data[0].regions[0].writeable(data[0].accession)) == [ [ "MIRBASE:MI0000471", "@9/136670602-136670686:+", "9", 1, "GRCh38", 1, 136670602, 136670686, ] ] def test_can_properly_handle_shifting_mirbase_coordinates(): with open("data/json-schema/v020/shift-mirbase-2.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 1 assert len(data[0].regions) == 1 assert attr.asdict(data[0].regions[0]) == attr.asdict( dat.SequenceRegion( chromosome="12", strand="-", exons=[dat.Exon(start=121444279, stop=121444305)], assembly_id="GRCh38", coordinate_system=dat.CoordinateSystem.from_name("1-start, fully-closed"), ) ) assert list(data[0].regions[0].writeable(data[0].accession)) == [ [ "MIRBASE:MIMAT0028112", "@12/121444279-121444305:-", "12", -1, "GRCh38", 1, 121444279, 121444305, ] ] def test_does_get_correct_lncbook_genes(): with open("data/json-schema/v020/lncbook.json", "r") as raw: data = json.load(raw) data = list(v1.parse(data)) assert len(data) == 3 assert attr.asdict(data[0]) == attr.asdict( dat.Entry( primary_id="HSALNT0000002", accession="LncBook:HSALNT0000002", ncbi_tax_id=9606, database="LNCBOOK", sequence="CGCGGCCCCTGTAGGCCAAGGCGCCAGGCAGGACGACAGCAGCAGCAGCGCGTCTCCTTCAGCTTCACTGCTGTGTCTCCCAGTGTAACCCTAGCATCCAGAAGTGGCACAAAACCCCTCTGCTGGCTCGTGTGTGCAACTGAGACTGTCAGAGCATGGCTAGCTCAGGGGTCCAGCTCTGCAGGGTGGGGGCTAGAGAGGAAGCAGGGAGTATCTGCACACAGGATGCCCGCGCTCAGGTGGTTGCAGAAGTCAGTGCCCAGGCCCCCACACACAGTCTCCAAAGGTCCGGCCTCCCCAGCGCAGGGCTCCTCGTTTGAGGGGAGGTGACTTCCCTCCATCGGCAAGGCCAAGCTGCGCAGCATGAAGGAGCGAAAGCTGGAGAAGCAGCAGCAGAAGGAGCAGGAGCAAGTTGATGTCGGATCTCTTCAACAAGCTGGTCATGAGGCGCAAGGGCATCTCTGGGAAAGGACCTGGGGCTGGTGAGGGGCCCGGAGGAGCCTTTGC", regions=[ dat.SequenceRegion( chromosome="1", strand="-", exons=[ dat.Exon(start=14778, stop=14829), dat.Exon(start=14970, stop=15012), dat.Exon(start=15796, stop=15869), dat.Exon(start=16035, stop=16310), dat.Exon(start=16607, stop=16668), ], assembly_id="GRCh37", coordinate_system=dat.CoordinateSystem.from_name( "1-start, fully-closed" ), ), ], rna_type="SO:0001904", url="http://bigd.big.ac.cn/lncbook/transcript?transid=HSALNT0000002", seq_version="1", note_data={ "url": "http://bigd.big.ac.cn/lncbook/transcript?transid=HSALNT0000002", }, xref_data={ "NONCODE": ["NONHSAT000005.2"], }, species="Homo sapiens", common_name="human", lineage=( "Eukaryota; Metazoa; Chordata; Craniata; " "Vertebrata; Euteleostomi; Mammalia; Eutheria; " "Euarchontoglires; Primates; Haplorrhini; Catarrhini; " "Hominidae; Homo; Homo sapiens" ), gene="HSALNG0000002", description="Homo sapiens (human) HSALNT0000002", references=[ dat.IdReference.build("PMID:30715521"), ], related_sequences=[ dat.RelatedSequence( sequence_id="LncBook:HSALNT0000003", relationship="isoform", coordinates=[], evidence=dat.RelatedEvidence.empty(), ), dat.RelatedSequence( sequence_id="LncBook:HSALNT0000004", relationship="isoform", coordinates=[], evidence=dat.RelatedEvidence.empty(), ), ], ) )
45.310223
531
0.501046
8,096
128,092
7.852643
0.117218
0.125144
0.180763
0.194668
0.735478
0.729359
0.718002
0.708376
0.702053
0.701203
0
0.078856
0.396285
128,092
2,826
532
45.326256
0.743259
0.005871
0
0.71945
0
0.000723
0.215186
0.137017
0
0
0
0
0.011569
1
0.005061
false
0
0.002169
0
0.007231
0
0
0
0
null
0
1
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
2023f978f7a214c85d0710fa819243b32392f67f
3,421
py
Python
tests/spectral_clusterer_test.py
JKybelka/SpectralCluster
15195d850eb31eb421b1b6d7eb53ba0188542b24
[ "Apache-2.0" ]
null
null
null
tests/spectral_clusterer_test.py
JKybelka/SpectralCluster
15195d850eb31eb421b1b6d7eb53ba0188542b24
[ "Apache-2.0" ]
null
null
null
tests/spectral_clusterer_test.py
JKybelka/SpectralCluster
15195d850eb31eb421b1b6d7eb53ba0188542b24
[ "Apache-2.0" ]
null
null
null
import unittest import numpy as np from spectralcluster import refinement from spectralcluster import spectral_clusterer from spectralcluster import utils class TestSpectralClusterer(unittest.TestCase): """Tests for the SpectralClusterer class.""" def setUp(self): super().setUp() pass def test_6by2_matrix(self): matrix = np.array([ [1.0, 0.0], [1.1, 0.1], [0.0, 1.0], [0.1, 1.0], [0.9, -0.1], [0.0, 1.2], ]) refinement_options = refinement.RefinementOptions( gaussian_blur_sigma=0, p_percentile=0.95) clusterer = spectral_clusterer.SpectralClusterer( refinement_options=refinement_options) labels = clusterer.predict(matrix) labels = utils.enforce_ordered_labels(labels) expected = np.array([0, 0, 1, 1, 0, 1]) self.assertTrue(np.array_equal(expected, labels)) def test_1000by6_matrix(self): matrix = np.array([[1.0, 0.0, 0.0, 0.0, 0.0, 0.0]] * 400 + [[0.0, 1.0, 0.0, 0.0, 0.0, 0.0]] * 300 + [[0.0, 0.0, 2.0, 0.0, 0.0, 0.0]] * 200 + [[0.0, 0.0, 0.0, 1.0, 0.0, 0.0]] * 100) noisy = np.random.rand(1000, 6) * 2 - 1 matrix = matrix + noisy * 0.1 refinement_options = refinement.RefinementOptions( gaussian_blur_sigma=0, p_percentile=0.2) clusterer = spectral_clusterer.SpectralClusterer( refinement_options=refinement_options, stop_eigenvalue=0.01) labels = clusterer.predict(matrix) labels = utils.enforce_ordered_labels(labels) expected = np.array([0] * 400 + [1] * 300 + [2] * 200 + [3] * 100) self.assertTrue(np.array_equal(expected, labels)) def test_6by2_matrix_normalized_laplacian(self): matrix = np.array([ [1.0, 0.0], [1.1, 0.1], [0.0, 1.0], [0.1, 1.0], [0.9, -0.1], [0.0, 1.2], ]) refinement_sequence = [] refinement_options = refinement.RefinementOptions( p_percentile=0.95, refinement_sequence=refinement_sequence) clusterer = spectral_clusterer.SpectralClusterer( max_clusters=2, refinement_options=refinement_options, laplacian_type="graph_cut", row_wise_renorm=True) labels = clusterer.predict(matrix) labels = utils.enforce_ordered_labels(labels) expected = np.array([0, 0, 1, 1, 0, 1]) self.assertTrue(np.array_equal(expected, labels)) def test_1000by6_matrix_normalized_laplacian(self): matrix = np.array([[1.0, 0.0, 0.0, 0.0, 0.0, 0.0]] * 400 + [[0.0, 1.0, 0.0, 0.0, 0.0, 0.0]] * 300 + [[0.0, 0.0, 2.0, 0.0, 0.0, 0.0]] * 200 + [[0.0, 0.0, 0.0, 1.0, 0.0, 0.0]] * 100) noisy = np.random.rand(1000, 6) * 2 - 1 matrix = matrix + noisy * 0.1 refinement_sequence = [] refinement_options = refinement.RefinementOptions( p_percentile=0.95, refinement_sequence=refinement_sequence) clusterer = spectral_clusterer.SpectralClusterer( max_clusters=4, refinement_options=refinement_options, laplacian_type="graph_cut", row_wise_renorm=True) labels = clusterer.predict(matrix) labels = utils.enforce_ordered_labels(labels) expected = np.array([0] * 400 + [1] * 300 + [2] * 200 + [3] * 100) self.assertTrue(np.array_equal(expected, labels)) if __name__ == "__main__": unittest.main()
34.908163
70
0.611225
471
3,421
4.282378
0.161359
0.087258
0.092216
0.095191
0.853247
0.853247
0.853247
0.853247
0.776896
0.770451
0
0.10159
0.246127
3,421
97
71
35.268041
0.680496
0.011108
0
0.752941
0
0
0.007699
0
0
0
0
0
0.047059
1
0.058824
false
0.011765
0.058824
0
0.129412
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
6447a9f94f224e04519119e648da3e3c7833e093
17,571
py
Python
ranker/simulate_raters.py
cmaclell/humanranker
5a5d2de6c8975506106b8531d38952edc687ae9e
[ "MIT" ]
null
null
null
ranker/simulate_raters.py
cmaclell/humanranker
5a5d2de6c8975506106b8531d38952edc687ae9e
[ "MIT" ]
null
null
null
ranker/simulate_raters.py
cmaclell/humanranker
5a5d2de6c8975506106b8531d38952edc687ae9e
[ "MIT" ]
1
2018-06-23T13:38:38.000Z
2018-06-23T13:38:38.000Z
import random import math import numpy as np import matplotlib.pyplot as plt from scipy.stats import spearmanr from scipy.optimize import fmin_tnc from estimator import ll_combined from estimator import ll_combined_grad from estimator import expz from estimator import item_mean from estimator import item_std from estimator import discrim_mean from estimator import discrim_std from estimator import bias_mean from estimator import bias_std from estimator import prec_mean from estimator import prec_std from estimator import FakeObject def random_choice(judge, left_item, right_item): return random.choice([0,1]) def perfect_choice(judge, left_item, right_item): if left_item.value > right_item.value: return 1.0 else: return 0.0 def noisy_choice(judge, left_item, right_item): prob_correct = (1.0 / (1.0 + expz(-judge.true_discrim * (left_item.value - right_item.value)))) r = random.random() if r <= prob_correct: return 1.0 else: return 0.0 def random_judgement(judge, item): return random.choice([1,2,3,4,5,6,7]) def perfect_judgement(judge, item): return max(1, min(7, round((item.value + bias_mean)))) def noisy_judgement(judge, item): estimate = random.normalvariate(item.value + judge.true_bias, math.sqrt(1/judge.true_precision)) return max(1, min(7, round((estimate)))) def random_item(items): items = [i for i in items] random.shuffle(items) return items[0] def random_pair(items): items = [i for i in items] random.shuffle(items) return items[0:2] def simulate_individual(num_runs, num_items, num_judges, num_ratings, estimation_mod, decision_fn, rate_fn): print("Simulating Individual") accuracy = [[] for i in range(num_ratings)] for run in range(num_runs): print("Run %i" % run) items = [] ids = [] for i in range(num_items): item = FakeObject() item.id = i item.value = random.normalvariate(item_mean,item_std) items.append(item) ids.append(i) judges = [] jids = [] for i in range(num_judges): judge = FakeObject() judge.id = i judge.true_bias = min(7,max(1,random.normalvariate(bias_mean, bias_std))) judge.true_precision = max(0.001, random.normalvariate(prec_mean,prec_std)) judge.cache = {} judge.decision_fn = decision_fn judges.append(judge) jids.append(i) # generate ratings ratings = [] run_accuracy = [] result = None for i in range(num_ratings): if i % estimation_mod is 0: if result is None: x0 = [0.0 for item in items] x0 += [1.0 for judge in judges] x0 += [0.0 for judge in judges] x0 += [1.0 for judge in judges] x0 += [4.0] else: x0 = result bounds = [('-inf','inf') for v in ids] bounds += [(0.001,'inf') for v in jids] bounds += [('-inf','inf') for v in jids] bounds += [(0.001,'inf') for v in jids] bounds += [(1,7)] result = fmin_tnc(ll_combined, x0, #approx_grad=True, fprime=ll_combined_grad, args=(tuple(ids), tuple(jids), [], ratings), bounds=bounds, disp=False)[0] ids = {i: idx for idx, i in enumerate(ids)} discids = {i: idx + len(ids) for idx, i in enumerate(jids)} biasids = {i: idx + len(ids) + len(jids) for idx, i in enumerate(jids)} precids = {i: idx + len(ids) + 2 * len(jids) for idx, i in enumerate(jids)} for item in items: item.mean = result[ids[item.id]] item.conf = 10000.0 for judge in judges: judge.discrimination = result[discids[judge.id]] judge.bias = result[biasids[judge.id]] judge.precision = result[precids[judge.id]] d2ll = np.array([0.0 for item in items]) for l in ratings: d2ll[ids[l.item.id]] += l.judge.precision # regularization terms for i,v in enumerate(d2ll): d2ll[i] += len(ids) / (item_std * item_std) std = 1.0 / np.sqrt(d2ll) for item in items: item.conf = 1.96 * std[ids[item.id]] actual = np.array([item.value for item in items]) predicted = np.array([item.mean for item in items]) r = spearmanr(actual,predicted)[0] if math.isnan(r): run_accuracy.append(0.0) else: run_accuracy.append(r) r = FakeObject() r.item = rate_fn(items) r.judge = random.choice(judges) r.value = r.judge.decision_fn(r.judge, r.item) ratings.append(r) for idx, v in enumerate(run_accuracy): accuracy[idx].append(v) return accuracy def simulate_pairwise(num_runs, num_items, num_judges, num_ratings, estimation_mod, decision_fn, rate_fn): print("Simulating Pairwise") accuracy = [[] for i in range(num_ratings)] for run in range(num_runs): print("Run %i" % run) items = [] ids = [] for i in range(num_items): item = FakeObject() item.id = i item.value = random.normalvariate(item_mean,item_std) items.append(item) ids.append(i) judges = [] jids = [] for i in range(num_judges): judge = FakeObject() judge.id = i judge.true_discrim = max(0.001, random.normalvariate(discrim_mean,discrim_std)) judge.cache = {} judge.decision_fn = decision_fn judges.append(judge) jids.append(i) # generate ratings ratings = [] run_accuracy = [] result = None for i in range(num_ratings): if i % estimation_mod is 0: if result is None: x0 = [0.0 for item in items] x0 += [1.0 for judge in judges] x0 += [0.0 for judge in judges] x0 += [1.0 for judge in judges] x0 += [1.0, 4.0] else: x0 = result bounds = [('-inf','inf') for v in ids] bounds += [(0.001,'inf') for v in jids] bounds += [('-inf','inf') for v in jids] bounds += [(0.001,'inf') for v in jids] bounds += [(0.001, 'inf'), (1,7)] result = fmin_tnc(ll_combined, x0, #approx_grad=True, fprime=ll_combined_grad, args=(tuple(ids), tuple(jids), ratings, []), bounds=bounds, disp=False)[0] ids = {i: idx for idx, i in enumerate(ids)} discids = {i: idx + len(ids) for idx, i in enumerate(jids)} biasids = {i: idx + len(ids) + len(jids) for idx, i in enumerate(jids)} precids = {i: idx + len(ids) + 2 * len(jids) for idx, i in enumerate(jids)} for item in items: item.mean = result[ids[item.id]] item.conf = 10000.0 for judge in judges: judge.discrimination = result[discids[judge.id]] judge.bias = result[biasids[judge.id]] judge.precision = result[precids[judge.id]] d2ll = np.array([0.0 for item in items]) for r in ratings: d = r.judge.discrimination left = r.left.mean right = r.right.mean p = 1.0 / (1.0 + expz(-1 * d * (left-right))) q = 1 - p d2ll[ids[r.left.id]] += d * d * p * q d2ll[ids[r.right.id]] += d * d * p * q # regularization terms for i,v in enumerate(d2ll): d2ll[i] += len(ids) / (item_std * item_std) std = 1.0 / np.sqrt(d2ll) for item in items: item.conf = 1.96 * std[ids[item.id]] actual = np.array([item.value for item in items]) predicted = np.array([item.mean for item in items]) r = spearmanr(actual,predicted)[0] if math.isnan(r): run_accuracy.append(0.0) else: run_accuracy.append(r) r = FakeObject() r.left, r.right = rate_fn(items) r.judge = random.choice(judges) r.value = r.judge.decision_fn(r.judge, r.left, r.right) ratings.append(r) for idx, v in enumerate(run_accuracy): accuracy[idx].append(v) return accuracy def simulate_combined(num_runs, num_items, num_judges, num_ratings, estimation_mod, pairwise_decision_fn, pairwise_rate_fn, individual_decision_fn, individual_rate_fn): print("Simulating Combined") accuracy = [[] for i in range(num_ratings)] for run in range(num_runs): print("Run %i" % run) items = [] ids = [] for i in range(num_items): item = FakeObject() item.id = i item.value = random.normalvariate(item_mean,item_std) items.append(item) ids.append(i) judges = [] jids = [] for i in range(num_judges): judge = FakeObject() judge.id = i judge.true_discrim = max(0.001, random.normalvariate(discrim_mean,discrim_std)) judge.true_bias = min(7,max(1,random.normalvariate(bias_mean, bias_std))) judge.true_precision = max(0.001, random.normalvariate(prec_mean,prec_std)) judge.cache = {} judge.pairwise_decision_fn = pairwise_decision_fn judge.individual_decision_fn = individual_decision_fn judges.append(judge) jids.append(i) # generate ratings pairwise = [] individual = [] run_accuracy = [] result = None for i in range(num_ratings): if i % estimation_mod is 0: if result is None: x0 = [0.0 for item in items] x0 += [1.0 for judge in judges] x0 += [0.0 for judge in judges] x0 += [1.0 for judge in judges] x0 += [1.0, 4.0] else: x0 = result bounds = [('-inf','inf') for v in ids] bounds += [(0.001,'inf') for v in jids] bounds += [('-inf','inf') for v in jids] bounds += [(0.001,'inf') for v in jids] bounds += [(0.001,'inf'), (1, 7)] result = fmin_tnc(ll_combined, x0, #approx_grad=True, fprime=ll_combined_grad, args=(tuple(ids), tuple(jids), pairwise, individual), bounds=bounds, disp=False)[0] print(result[-1], result[-2]) ids = {i: idx for idx, i in enumerate(ids)} discids = {i: idx + len(ids) for idx, i in enumerate(jids)} biasids = {i: idx + len(ids) + len(jids) for idx, i in enumerate(jids)} precids = {i: idx + len(ids) + 2 * len(jids) for idx, i in enumerate(jids)} for item in items: item.mean = result[ids[item.id]] item.conf = 10000.0 for judge in judges: judge.discrimination = result[discids[judge.id]] judge.bias = result[biasids[judge.id]] judge.precision = result[precids[judge.id]] d2ll = np.array([0.0 for item in items]) for r in pairwise: d = r.judge.discrimination left = r.left.mean right = r.right.mean p = 1.0 / (1.0 + expz(-1 * d * (left-right))) q = 1 - p d2ll[ids[r.left.id]] += d * d * p * q d2ll[ids[r.right.id]] += d * d * p * q for l in individual: d2ll[ids[l.item.id]] += l.judge.precision # regularization terms for i,v in enumerate(d2ll): d2ll[i] += len(ids) / (item_std * item_std) std = 1.0 / np.sqrt(d2ll) for item in items: item.conf = 1.96 * std[ids[item.id]] actual = np.array([item.value for item in items]) predicted = np.array([item.mean for item in items]) r = spearmanr(actual,predicted)[0] if math.isnan(r): run_accuracy.append(0.0) else: run_accuracy.append(r) if i%2 is 0: r = FakeObject() r.left, r.right = pairwise_rate_fn(items) r.judge = random.choice(judges) r.value = r.judge.pairwise_decision_fn(r.judge, r.left, r.right) pairwise.append(r) else: r = FakeObject() r.item = individual_rate_fn(items) r.judge = random.choice(judges) r.value = r.judge.individual_decision_fn(r.judge, r.item) individual.append(r) for idx, v in enumerate(run_accuracy): accuracy[idx].append(v) return accuracy if __name__ == "__main__": num_runs = 1 num_items = 100 num_judges = 20 num_ratings = 501 num_estimations = 10 estimation_mod = math.trunc(num_ratings / num_estimations) # individual #accuracy_ind = simulate_individual(num_runs, num_items, num_judges, num_ratings, # estimation_mod, noisy_judgement, random_item) #acc_ind_mean = [np.mean(np.array(l)) for l in accuracy_ind] #acc_ind_lower = [acc_ind_mean[idx] - 1.96 * np.std(np.array(l)) for idx, l in # enumerate(accuracy_ind)] #acc_ind_upper = [acc_ind_mean[idx] + 1.96 * np.std(np.array(l)) for idx, l in # enumerate(accuracy_ind)] #plt.fill_between([i * estimation_mod for i in range(num_ratings)], acc_ind_lower, # acc_ind_upper, alpha=0.5, facecolor="blue") #plt.plot([i * estimation_mod for i in range(num_ratings)], acc_ind_mean, # label="Individual", color="blue") # pairwise #accuracy_pairwise = simulate_pairwise(num_runs, num_items, num_judges, num_ratings, # estimation_mod, noisy_choice, random_pair) #acc_pair_mean = [np.mean(np.array(l)) for l in accuracy_pairwise] #acc_pair_lower = [acc_pair_mean[idx] - 1.96 * np.std(np.array(l)) for idx, l in # enumerate(accuracy_pairwise)] #acc_pair_upper = [acc_pair_mean[idx] + 1.96 * np.std(np.array(l)) for idx, l in # enumerate(accuracy_pairwise)] #plt.fill_between([i * estimation_mod for i in range(num_ratings)], acc_pair_lower, # acc_pair_upper, alpha=0.5, facecolor="green") #plt.plot([i * estimation_mod for i in range(num_ratings)], acc_pair_mean, # label="Pairwise", color="green") # combined accuracy_combined = simulate_combined(num_runs, num_items, num_judges, num_ratings, estimation_mod, noisy_choice, random_pair, noisy_judgement, random_item) acc_combined_mean = [np.mean(np.array(l)) for l in accuracy_combined] acc_combined_lower = [acc_combined_mean[idx] - 1.96 * np.std(np.array(l)) for idx, l in enumerate(accuracy_combined)] acc_combined_upper = [acc_combined_mean[idx] + 1.96 * np.std(np.array(l)) for idx, l in enumerate(accuracy_combined)] plt.fill_between([i * estimation_mod for i in range(num_ratings)], acc_combined_lower, acc_combined_upper, alpha=0.5, facecolor="red") plt.plot([i * estimation_mod for i in range(num_ratings)], acc_combined_mean, label="Combined", color="red") plt.title("Simulated Accuracy for " + str(num_items) + " Items and " + str(num_judges) + " Judges (Avg of " + str(num_runs) + " Runs)") plt.xlabel("# of ratings") plt.ylabel("Spearman's Rank Correlation Coefficient") plt.legend(loc=4) plt.show()
37.706009
91
0.507655
2,141
17,571
4.033162
0.075199
0.011118
0.02432
0.02293
0.814592
0.780544
0.753561
0.753561
0.743949
0.743949
0
0.024924
0.385749
17,571
465
92
37.787097
0.775132
0.093336
0
0.718023
0
0
0.017114
0
0
0
0
0
0
1
0.031977
false
0
0.052326
0.008721
0.122093
0.020349
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
b3af3b41734fe6c78e86f97a9ac735cf6b71917b
44
py
Python
Python/pythonProject/exercise/ex033.py
JoaoMoreira2002/Linguagens-de-programacao
b91a902188428238a567c8f52b2ac9028378c4df
[ "MIT" ]
null
null
null
Python/pythonProject/exercise/ex033.py
JoaoMoreira2002/Linguagens-de-programacao
b91a902188428238a567c8f52b2ac9028378c4df
[ "MIT" ]
null
null
null
Python/pythonProject/exercise/ex033.py
JoaoMoreira2002/Linguagens-de-programacao
b91a902188428238a567c8f52b2ac9028378c4df
[ "MIT" ]
null
null
null
print('\033[31;42m'+'Olá mundo'+'\033[0;0m')
44
44
0.613636
9
44
3
0.888889
0
0
0
0
0
0
0
0
0
0
0.27907
0.022727
44
1
44
44
0.348837
0
0
0
0
0
0.644444
0
0
0
0
0
0
1
0
true
0
0
0
0
1
1
1
0
null
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
0
1
0
0
0
0
0
1
0
null
0
0
0
0
0
0
1
0
0
0
0
1
0
8
b3ed88d5d0031710028fd17c5f7c8575c654703c
461
py
Python
reinvent_scoring/scoring/diversity_filters/reinvent_core/__init__.py
MolecularAI/reinvent-scoring
f7e052ceeffd29e17e1672c33607189873c82a45
[ "MIT" ]
null
null
null
reinvent_scoring/scoring/diversity_filters/reinvent_core/__init__.py
MolecularAI/reinvent-scoring
f7e052ceeffd29e17e1672c33607189873c82a45
[ "MIT" ]
2
2021-11-01T23:19:42.000Z
2021-11-22T23:41:39.000Z
reinvent_scoring/scoring/diversity_filters/reinvent_core/__init__.py
MolecularAI/reinvent-scoring
f7e052ceeffd29e17e1672c33607189873c82a45
[ "MIT" ]
2
2021-11-18T13:14:22.000Z
2022-03-16T07:52:57.000Z
from reinvent_scoring.scoring.diversity_filters.reinvent_core.identical_murcko_scaffold import IdenticalMurckoScaffold from reinvent_scoring.scoring.diversity_filters.reinvent_core.no_scaffold_filter import NoScaffoldFilter from reinvent_scoring.scoring.diversity_filters.reinvent_core.scaffold_similarity import ScaffoldSimilarity from reinvent_scoring.scoring.diversity_filters.reinvent_core.identical_topological_scaffold import IdenticalTopologicalScaffold
92.2
128
0.930586
51
461
8.039216
0.352941
0.117073
0.185366
0.253659
0.570732
0.570732
0.570732
0.570732
0.307317
0
0
0
0.034707
461
4
129
115.25
0.921348
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
0
0
0
null
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
1
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
375975b644bfb69f2408495d094a8f6d8417543f
16,616
py
Python
sim_config.py
ZhaozhiQIAN/Single-Cause-Perturbation-NeurIPS-2021
c1dd837bf4afc91d2a64a3afab759a21cbdc65cb
[ "MIT" ]
8
2021-12-07T18:16:59.000Z
2022-03-08T02:17:06.000Z
sim_config.py
ZhaozhiQIAN/Single-Cause-Perturbation-NeurIPS-2021
c1dd837bf4afc91d2a64a3afab759a21cbdc65cb
[ "MIT" ]
null
null
null
sim_config.py
ZhaozhiQIAN/Single-Cause-Perturbation-NeurIPS-2021
c1dd837bf4afc91d2a64a3afab759a21cbdc65cb
[ "MIT" ]
1
2021-12-03T16:25:41.000Z
2021-12-03T16:25:41.000Z
from typing import NamedTuple from global_config import ( CAUSE_NOISE, CONFOUNDING_LEVEL, N_CAUSE, N_CONFOUNDER, OUTCOME_INTERACTION, OUTCOME_NOISE, P_CAUSE_CAUSE, P_CONFOUNDER_CAUSE, P_OUTCOME_DOUBLE, P_OUTCOME_SINGLE, SAMPLE_SIZE, ) from sim_data_gen import DataGeneratorConfig # # ablation study # P_CAUSE_CAUSE = 0.9 sim_dict = dict() config = DataGeneratorConfig( n_confounder=17, n_cause=5, n_outcome=1, sample_size=3080, p_confounder_cause=0.3, p_cause_cause=0.0, cause_noise=1, outcome_noise=0.01, linear=True, n_flip=1, sim_id="real_3000", real_data=True, ) sim_dict["real_3000"] = config for sample_size in [500, 1000, 1500, 2000, 2500]: idd = "real_{}".format(sample_size) config = DataGeneratorConfig( n_confounder=17, n_cause=5, n_outcome=1, sample_size=sample_size, p_confounder_cause=0.3, p_cause_cause=P_CAUSE_CAUSE, cause_noise=1, outcome_noise=0.01, linear=True, n_flip=1, sim_id=idd, real_data=True, ) sim_dict[idd] = config for linear in [True, False]: lin_id = "linear" if linear else "nonlinear" for sample_size_train in [400, 700, 1400, 2000]: sim_id = "sample_size_train_{}_{}".format(sample_size_train, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, confounding_level=CONFOUNDING_LEVEL, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, n_flip=1, sim_id=sim_id, sample_size_train=sample_size_train, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for n_confounder in [10, 20, 30, 40]: sim_id = "n_confounder_{}_{}".format(n_confounder, lin_id) config = DataGeneratorConfig( n_confounder=n_confounder, n_cause=N_CAUSE, n_outcome=1, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, confounding_level=CONFOUNDING_LEVEL, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, n_flip=1, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for confounding_level in [1.0, 3.0, 5.0, 7.0]: sim_id = "confounding_level_{}_{}".format(confounding_level, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, n_flip=1, confounding_level=confounding_level, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for n_flip in [1, 2, 3, 5]: sim_id = "n_flip_{}_{}".format(n_flip, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, n_flip=n_flip, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for p_confounder_cause in [0.1, 0.3, 0.5, 0.8]: sim_id = "p_confounder_cause_{}_{}".format(p_confounder_cause, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=p_confounder_cause, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for p_cause_cause in [0.1, 0.3, 0.5, 0.8]: sim_id = "p_cause_cause_{}_{}".format(p_cause_cause, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=p_cause_cause, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, sim_id=sim_id, n_flip=1, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for p_outcome_single in [0.1, 0.3, 0.5, 0.8]: sim_id = "p_outcome_single_{}_{}".format(p_outcome_single, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, p_outcome_single=p_outcome_single, p_outcome_double=P_OUTCOME_DOUBLE, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, sim_id=sim_id, n_flip=1, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for cause_noise in [0.01, 0.3, 0.5, 0.8]: sim_id = "cause_noise_{}_{}".format(cause_noise, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, p_outcome_single=P_OUTCOME_SINGLE, p_outcome_double=P_OUTCOME_DOUBLE, cause_noise=cause_noise, outcome_noise=OUTCOME_NOISE, linear=linear, sim_id=sim_id, n_flip=1, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for p_outcome_double in [0.05, 0.1, 0.15, 0.2]: sim_id = "p_outcome_double_{}_{}".format(p_outcome_double, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=N_CAUSE, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, p_outcome_single=P_OUTCOME_SINGLE, p_outcome_double=p_outcome_double, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, sim_id=sim_id, n_flip=1, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]: sim_id = "n_cause_{}_{}".format(n_cause, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=n_cause, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, ) sim_dict[sim_id] = config for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]: sim_id = "nc_n_cause_{}_{}".format(n_cause, lin_id) config = DataGeneratorConfig( n_confounder=2, n_cause=n_cause, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=0.0, p_cause_cause=0.0, cause_noise=CAUSE_NOISE, outcome_noise=OUTCOME_NOISE, linear=linear, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, p_outcome_single=1.0, p_outcome_double=1.0, ) sim_dict[sim_id] = config for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]: sim_id = "ndlm_n_cause_{}_{}".format(n_cause, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=n_cause, n_outcome=1, confounding_level=10, sample_size=SAMPLE_SIZE, p_confounder_cause=0.5, p_cause_cause=0.0, cause_noise=0.0, outcome_noise=0.1, linear=linear, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, p_outcome_single=0.2, p_outcome_double=0.001, ) sim_dict[sim_id] = config for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]: sim_id = "ldlm_n_cause_{}_{}".format(n_cause, lin_id) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=n_cause, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=0.5, p_cause_cause=0.0, cause_noise=0.0, outcome_noise=0.1, linear=linear, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, p_outcome_single=1.0, p_outcome_double=0.0, ) sim_dict[sim_id] = config for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]: sim_id = "o3_n_cause_{}_{}".format(n_cause, lin_id) config = DataGeneratorConfig( n_confounder=5, n_cause=n_cause, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=0.5, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=0.1, linear=linear, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, p_outcome_single=1.0, p_outcome_double=1.0, ) sim_dict[sim_id] = config for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]: sim_id = "dn_n_cause_{}_{}".format(n_cause, lin_id) config = DataGeneratorConfig( n_confounder=5, n_cause=n_cause, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=1.0, p_cause_cause=1.0, cause_noise=CAUSE_NOISE, outcome_noise=0.1, linear=linear, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, p_outcome_single=1.0, p_outcome_double=1.0, ) sim_dict[sim_id] = config for n_flip in [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]: sim_id = "abl_n_flip_{}".format(n_flip) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=10, n_outcome=1, sample_size=5000, p_confounder_cause=0.3, p_cause_cause=0.9, cause_noise=0.0, outcome_noise=0.01, n_flip=n_flip, confounding_level=1.0, linear=True, sim_id=sim_id, ) sim_dict[sim_id] = config for n_flip in [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]: sim_id = "abl_n_flip_new_{}".format(n_flip) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=10, n_outcome=1, sample_size=5000, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=0.9, cause_noise=CAUSE_NOISE, outcome_noise=0.01, n_flip=n_flip, confounding_level=CONFOUNDING_LEVEL, linear=True, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, p_outcome_single=P_OUTCOME_SINGLE, p_outcome_double=P_OUTCOME_DOUBLE, ) sim_dict[sim_id] = config for p_cause_cause in [0.1, 0.3, 0.5, 0.8]: sim_id = "abl_p_cause_cause_{}".format(p_cause_cause) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=5, n_outcome=1, sample_size=5000, p_confounder_cause=0.3, p_cause_cause=p_cause_cause, cause_noise=0.01, outcome_noise=0.01, linear=True, confounding_level=1.0, sim_id=sim_id, n_flip=2, ) sim_dict[sim_id] = config for p_confounder_cause in [0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0]: sim_id = "abl_p_confounder_cause_{}".format(p_confounder_cause) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=10, n_outcome=1, sample_size=5000, p_confounder_cause=p_confounder_cause, p_cause_cause=0.0, cause_noise=0.0, outcome_noise=0.01, linear=True, confounding_level=1.0, sim_id=sim_id, n_flip=1, ) sim_dict[sim_id] = config sim_id = "ea_{}_{}".format(5, "linear") config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=5, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=0.1, linear=True, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, n_flip=1, ) sim_dict[sim_id] = config for confounding_level in [2, 4, 6, 8, 10]: sim_id = "ea_balance_{}".format(confounding_level) config = DataGeneratorConfig( n_confounder=5, n_cause=5, n_outcome=1, confounding_level=confounding_level, sample_size=SAMPLE_SIZE, p_confounder_cause=1, p_cause_cause=1, cause_noise=0, outcome_noise=0.1, linear=True, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, n_flip=1, ) sim_dict[sim_id] = config for flip in range(0, 6): sim_id = "ea_{}_{}_{}".format(5, "linear", flip) config = DataGeneratorConfig( n_confounder=N_CONFOUNDER, n_cause=5, n_outcome=1, confounding_level=CONFOUNDING_LEVEL, sample_size=SAMPLE_SIZE, p_confounder_cause=P_CONFOUNDER_CAUSE, p_cause_cause=P_CAUSE_CAUSE, cause_noise=CAUSE_NOISE, outcome_noise=0.1, linear=True, sim_id=sim_id, outcome_interaction=OUTCOME_INTERACTION, n_flip=flip, ) sim_dict[sim_id] = config # p_confounder_cause=0.1, 0.3, 0.5 # independent_cause = DataGeneratorConfig( # n_confounder=N_CONFOUNDER, # n_cause=N_CAUSE, # n_outcome=1, # sample_size=SAMPLE_SIZE, # # higher, higher error # p_confounder_cause=P_CONFOUNDER_CAUSE, # # independent cause # p_cause_cause=0.0, # cause_noise=CAUSE_NOISE, # outcome_noise=OUTCOME_NOISE, # linear=True # ) # n_cause = 2, 5, 10 # independent_cause = DataGeneratorConfig( # n_confounder=N_CONFOUNDER, # n_cause=N_CAUSE, # n_outcome=1, # sample_size=SAMPLE_SIZE, # # higher, higher error # p_confounder_cause=P_CONFOUNDER_CAUSE, # # independent cause # p_cause_cause=0.0, # cause_noise=CAUSE_NOISE, # outcome_noise=OUTCOME_NOISE, # linear=True # ) class AblationConfig(NamedTuple): perturb_subset: int = 10000 exact_single_cause: bool = False predict_all_causes: bool = False is_ablate: bool = False ablation_id: str = "" oracle_po: bool = False oracle_potential_cause: bool = False
31.350943
78
0.599362
2,123
16,616
4.281677
0.048516
0.049505
0.088009
0.054235
0.883718
0.862266
0.854235
0.835424
0.830803
0.821892
0
0.040442
0.313974
16,616
529
79
31.410208
0.756996
0.045378
0
0.761905
0
0
0.02755
0.008783
0
0
0
0
0
1
0
false
0
0.006494
0
0.02381
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
37ac29337e0185bf529b76cc35e9538abac61b9d
25,661
py
Python
graylog/apis/systemgrok_api.py
yumimobi/graylog.py
3118f4a49c91c2cbbd660523b0ab99e56fbfd861
[ "Apache-2.0" ]
10
2016-09-27T08:13:22.000Z
2018-09-04T13:15:42.000Z
graylog/apis/systemgrok_api.py
yumimobi/graylog.py
3118f4a49c91c2cbbd660523b0ab99e56fbfd861
[ "Apache-2.0" ]
1
2019-08-28T16:16:09.000Z
2019-08-28T16:16:09.000Z
graylog/apis/systemgrok_api.py
yumimobi/graylog.py
3118f4a49c91c2cbbd660523b0ab99e56fbfd861
[ "Apache-2.0" ]
5
2016-11-03T07:45:18.000Z
2021-08-19T14:21:49.000Z
# coding: utf-8 """ No descripton provided (generated by Swagger Codegen https://github.com/swagger-api/swagger-codegen) OpenAPI spec version: 2.1.1+01d50e5 Generated by: https://github.com/swagger-api/swagger-codegen.git Licensed under the Apache License, Version 2.0 (the "License"); you may not use this file except in compliance with the License. You may obtain a copy of the License at http://www.apache.org/licenses/LICENSE-2.0 Unless required by applicable law or agreed to in writing, software distributed under the License is distributed on an "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. See the License for the specific language governing permissions and limitations under the License. """ from __future__ import absolute_import import sys import os import re # python 2 and python 3 compatibility library from six import iteritems from ..configuration import Configuration from ..api_client import ApiClient class SystemgrokApi(object): """ NOTE: This class is auto generated by the swagger code generator program. Do not edit the class manually. Ref: https://github.com/swagger-api/swagger-codegen """ def __init__(self, api_client=None): config = Configuration() if api_client: self.api_client = api_client else: if not config.api_client: config.api_client = ApiClient() self.api_client = config.api_client def bulk_update_patterns(self, patterns, **kwargs): """ Add a list of new patterns This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.bulk_update_patterns(patterns, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param GrokPatternList patterns: (required) :param Object replace: Replace all patterns with the new ones. :return: None If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('callback'): return self.bulk_update_patterns_with_http_info(patterns, **kwargs) else: (data) = self.bulk_update_patterns_with_http_info(patterns, **kwargs) return data def bulk_update_patterns_with_http_info(self, patterns, **kwargs): """ Add a list of new patterns This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.bulk_update_patterns_with_http_info(patterns, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param GrokPatternList patterns: (required) :param Object replace: Replace all patterns with the new ones. :return: None If the method is called asynchronously, returns the request thread. """ all_params = ['patterns', 'replace'] all_params.append('callback') all_params.append('_return_http_data_only') params = locals() for key, val in iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method bulk_update_patterns" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'patterns' is set if ('patterns' not in params) or (params['patterns'] is None): raise ValueError("Missing the required parameter `patterns` when calling `bulk_update_patterns`") resource_path = '/system/grok'.replace('{format}', 'json') path_params = {} query_params = {} if 'replace' in params: query_params['replace'] = params['replace'] header_params = {} form_params = [] local_var_files = {} body_params = None if 'patterns' in params: body_params = params['patterns'] # HTTP header `Accept` header_params['Accept'] = self.api_client.\ select_header_accept(['application/json']) if not header_params['Accept']: del header_params['Accept'] # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.\ select_header_content_type([]) # Authentication setting auth_settings = [] return self.api_client.call_api(resource_path, 'PUT', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type=None, auth_settings=auth_settings, callback=params.get('callback'), _return_http_data_only=params.get('_return_http_data_only')) def create_pattern(self, pattern, **kwargs): """ Add a new named pattern This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.create_pattern(pattern, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param GrokPatternSummary pattern: (required) :return: None If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('callback'): return self.create_pattern_with_http_info(pattern, **kwargs) else: (data) = self.create_pattern_with_http_info(pattern, **kwargs) return data def create_pattern_with_http_info(self, pattern, **kwargs): """ Add a new named pattern This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.create_pattern_with_http_info(pattern, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param GrokPatternSummary pattern: (required) :return: None If the method is called asynchronously, returns the request thread. """ all_params = ['pattern'] all_params.append('callback') all_params.append('_return_http_data_only') params = locals() for key, val in iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method create_pattern" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'pattern' is set if ('pattern' not in params) or (params['pattern'] is None): raise ValueError("Missing the required parameter `pattern` when calling `create_pattern`") resource_path = '/system/grok'.replace('{format}', 'json') path_params = {} query_params = {} header_params = {} form_params = [] local_var_files = {} body_params = None if 'pattern' in params: body_params = params['pattern'] # HTTP header `Accept` header_params['Accept'] = self.api_client.\ select_header_accept(['application/json']) if not header_params['Accept']: del header_params['Accept'] # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.\ select_header_content_type([]) # Authentication setting auth_settings = [] return self.api_client.call_api(resource_path, 'POST', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type=None, auth_settings=auth_settings, callback=params.get('callback'), _return_http_data_only=params.get('_return_http_data_only')) def list_grok_patterns(self, **kwargs): """ Get all existing grok patterns This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.list_grok_patterns(callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :return: GrokPatternList If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('callback'): return self.list_grok_patterns_with_http_info(**kwargs) else: (data) = self.list_grok_patterns_with_http_info(**kwargs) return data def list_grok_patterns_with_http_info(self, **kwargs): """ Get all existing grok patterns This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.list_grok_patterns_with_http_info(callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :return: GrokPatternList If the method is called asynchronously, returns the request thread. """ all_params = [] all_params.append('callback') all_params.append('_return_http_data_only') params = locals() for key, val in iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method list_grok_patterns" % key ) params[key] = val del params['kwargs'] resource_path = '/system/grok'.replace('{format}', 'json') path_params = {} query_params = {} header_params = {} form_params = [] local_var_files = {} body_params = None # HTTP header `Accept` header_params['Accept'] = self.api_client.\ select_header_accept(['application/json']) if not header_params['Accept']: del header_params['Accept'] # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.\ select_header_content_type([]) # Authentication setting auth_settings = [] return self.api_client.call_api(resource_path, 'GET', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='GrokPatternList', auth_settings=auth_settings, callback=params.get('callback'), _return_http_data_only=params.get('_return_http_data_only')) def list_pattern(self, pattern_id, **kwargs): """ Get the existing grok pattern This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.list_pattern(pattern_id, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param Object pattern_id: (required) :return: GrokPattern If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('callback'): return self.list_pattern_with_http_info(pattern_id, **kwargs) else: (data) = self.list_pattern_with_http_info(pattern_id, **kwargs) return data def list_pattern_with_http_info(self, pattern_id, **kwargs): """ Get the existing grok pattern This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.list_pattern_with_http_info(pattern_id, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param Object pattern_id: (required) :return: GrokPattern If the method is called asynchronously, returns the request thread. """ all_params = ['pattern_id'] all_params.append('callback') all_params.append('_return_http_data_only') params = locals() for key, val in iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method list_pattern" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'pattern_id' is set if ('pattern_id' not in params) or (params['pattern_id'] is None): raise ValueError("Missing the required parameter `pattern_id` when calling `list_pattern`") resource_path = '/system/grok/{patternId}'.replace('{format}', 'json') path_params = {} if 'pattern_id' in params: path_params['patternId'] = params['pattern_id'] query_params = {} header_params = {} form_params = [] local_var_files = {} body_params = None # HTTP header `Accept` header_params['Accept'] = self.api_client.\ select_header_accept(['application/json']) if not header_params['Accept']: del header_params['Accept'] # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.\ select_header_content_type([]) # Authentication setting auth_settings = [] return self.api_client.call_api(resource_path, 'GET', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='GrokPattern', auth_settings=auth_settings, callback=params.get('callback'), _return_http_data_only=params.get('_return_http_data_only')) def remove_pattern(self, **kwargs): """ Remove an existing pattern by id This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.remove_pattern(callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :return: None If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('callback'): return self.remove_pattern_with_http_info(**kwargs) else: (data) = self.remove_pattern_with_http_info(**kwargs) return data def remove_pattern_with_http_info(self, **kwargs): """ Remove an existing pattern by id This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.remove_pattern_with_http_info(callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :return: None If the method is called asynchronously, returns the request thread. """ all_params = [] all_params.append('callback') all_params.append('_return_http_data_only') params = locals() for key, val in iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method remove_pattern" % key ) params[key] = val del params['kwargs'] resource_path = '/system/grok/{patternId}'.replace('{format}', 'json') path_params = {} query_params = {} header_params = {} form_params = [] local_var_files = {} body_params = None # HTTP header `Accept` header_params['Accept'] = self.api_client.\ select_header_accept(['application/json']) if not header_params['Accept']: del header_params['Accept'] # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.\ select_header_content_type([]) # Authentication setting auth_settings = [] return self.api_client.call_api(resource_path, 'DELETE', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type=None, auth_settings=auth_settings, callback=params.get('callback'), _return_http_data_only=params.get('_return_http_data_only')) def update_pattern(self, pattern_id, pattern, **kwargs): """ Update an existing pattern This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.update_pattern(pattern_id, pattern, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param Object pattern_id: (required) :param GrokPatternSummary pattern: (required) :return: GrokPattern If the method is called asynchronously, returns the request thread. """ kwargs['_return_http_data_only'] = True if kwargs.get('callback'): return self.update_pattern_with_http_info(pattern_id, pattern, **kwargs) else: (data) = self.update_pattern_with_http_info(pattern_id, pattern, **kwargs) return data def update_pattern_with_http_info(self, pattern_id, pattern, **kwargs): """ Update an existing pattern This method makes a synchronous HTTP request by default. To make an asynchronous HTTP request, please define a `callback` function to be invoked when receiving the response. >>> def callback_function(response): >>> pprint(response) >>> >>> thread = api.update_pattern_with_http_info(pattern_id, pattern, callback=callback_function) :param callback function: The callback function for asynchronous request. (optional) :param Object pattern_id: (required) :param GrokPatternSummary pattern: (required) :return: GrokPattern If the method is called asynchronously, returns the request thread. """ all_params = ['pattern_id', 'pattern'] all_params.append('callback') all_params.append('_return_http_data_only') params = locals() for key, val in iteritems(params['kwargs']): if key not in all_params: raise TypeError( "Got an unexpected keyword argument '%s'" " to method update_pattern" % key ) params[key] = val del params['kwargs'] # verify the required parameter 'pattern_id' is set if ('pattern_id' not in params) or (params['pattern_id'] is None): raise ValueError("Missing the required parameter `pattern_id` when calling `update_pattern`") # verify the required parameter 'pattern' is set if ('pattern' not in params) or (params['pattern'] is None): raise ValueError("Missing the required parameter `pattern` when calling `update_pattern`") resource_path = '/system/grok/{patternId}'.replace('{format}', 'json') path_params = {} if 'pattern_id' in params: path_params['patternId'] = params['pattern_id'] query_params = {} header_params = {} form_params = [] local_var_files = {} body_params = None if 'pattern' in params: body_params = params['pattern'] # HTTP header `Accept` header_params['Accept'] = self.api_client.\ select_header_accept(['application/json']) if not header_params['Accept']: del header_params['Accept'] # HTTP header `Content-Type` header_params['Content-Type'] = self.api_client.\ select_header_content_type([]) # Authentication setting auth_settings = [] return self.api_client.call_api(resource_path, 'PUT', path_params, query_params, header_params, body=body_params, post_params=form_params, files=local_var_files, response_type='GrokPattern', auth_settings=auth_settings, callback=params.get('callback'), _return_http_data_only=params.get('_return_http_data_only'))
38.129272
109
0.55863
2,565
25,661
5.379727
0.080312
0.06957
0.02435
0.031307
0.910138
0.8955
0.88905
0.868469
0.851728
0.839554
0
0.000916
0.362067
25,661
672
110
38.186012
0.842028
0.33814
0
0.779221
1
0
0.14001
0.032119
0
0
0
0
0
1
0.042208
false
0
0.022727
0
0.126623
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
80667f3e580110f7862efdad73f035adcf775178
6,731
py
Python
test/extensive_test.py
c0ver/pyBedGraph
4c5db67f7b239c7653675dfc8385544abac49c1c
[ "MIT" ]
18
2019-07-12T00:24:08.000Z
2020-10-30T10:28:45.000Z
test/extensive_test.py
c0ver/pyBedGraph
4c5db67f7b239c7653675dfc8385544abac49c1c
[ "MIT" ]
2
2019-10-08T08:56:46.000Z
2020-11-01T22:42:14.000Z
test/extensive_test.py
c0ver/pyBedGraph
4c5db67f7b239c7653675dfc8385544abac49c1c
[ "MIT" ]
2
2019-12-20T15:32:19.000Z
2020-02-15T19:18:59.000Z
import time import pyBedGraph from pyBedGraph import BedGraph print(f'Using {pyBedGraph.__file__}') DEBUG = False try: bedGraph = BedGraph('test_files/hg38.chrom.sizes', 'test_files/ENCFF376VCU.bigWig', ['chr14']) assert False except RuntimeError: print("Passed giving wrong chrom size test!") start_time = time.time() bedGraph = BedGraph('test_files/mm10.chrom.sizes', 'test_files/ENCFF376VCU.bedGraph', debug=DEBUG) print(f"Loading ENCFF376VCU.bedgraph took {time.time() - start_time}") # Takes 170 seconds on i5-7300HQ bedGraph.load_chrom_data('chr1') bedGraph.load_chrom_bins('chr1', 100) bedGraph.load_chrom_data('chr4') bedGraph.load_chrom_bins('chr4', 100) if DEBUG: total_num_intervals = 0 avg_interval_sizes = { 'chr1': 26.447609, 'chr10': 25.53135 } for chrom in avg_interval_sizes: assert abs(bedGraph.chromosome_map[chrom].avg_interval_size - avg_interval_sizes[chrom]) < 0.0001 test_intervals = [ ['chr1', 0, 3000000], ['chr1', 3000000, 3100000], ['chr1', 3100000, 3200000], ['chr1', 3000297, 3000387] ] correct = [0.0, 0.2783213414900005, 0.37037220081612465, 0.733430027961731] result = bedGraph.stats('mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0, 0.27832134, 0.3703722, 0.61754806] result = bedGraph.stats('approx_mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 4.400169849395752, 5.133600234985352, 0.733430027961731] result = bedGraph.stats('max', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.0, 0.0, 0.733430027961731] result = bedGraph.stats('min', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.5458894746933545, 0.645887192684785, 0.0] result = bedGraph.stats('std', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 27832.1338, 37037.21976, 66.0087] result = bedGraph.stats('sum', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 test_intervals = [ ['chr4', 0, 50000], ['chr4', 3000000, 3100000], ['chr4', 3100000, 3200000], ['chr4', 3049939, 3049957] ] correct = [0.0, 0.16491732227414846, 0.028100075026154518, 0.4027400016784668] result = bedGraph.stats('mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0, 0.16491732, 0.02810007, 0.213423] result = bedGraph.stats('approx_mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 2.8125500679016113, 2.200079917907715, 0.4027400016784668] result = bedGraph.stats('max', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.0, 0.0, 0.4027400016784668] result = bedGraph.stats('min', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.3551471309944084, 0.15098161797799015, 0.0] result = bedGraph.stats('std', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 16491.7322, 2810.00742, 7.24932] result = bedGraph.stats('sum', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 print("Passed all bedgraph tests!") start_time = time.time() bedGraph = BedGraph('test_files/mm10.chrom.sizes', 'test_files/ENCFF376VCU.bigWig', debug=DEBUG) print(f"Loading ENCFF376VCU.bigWig took {time.time() - start_time}") # Takes 69 seconds on i5-7300HQ bedGraph.load_chrom_data('chr1') bedGraph.load_chrom_bins('chr1', 100) bedGraph.load_chrom_data('chr4') bedGraph.load_chrom_bins('chr4', 100) if DEBUG: avg_interval_sizes = { 'chr1': 26.447609, 'chr10': 25.53135 } for chrom in avg_interval_sizes: assert abs(bedGraph.chromosome_map[chrom].avg_interval_size - avg_interval_sizes[chrom]) < 0.0001 test_intervals = [ ['chr1', 0, 3000000], ['chr1', 3000000, 3100000], ['chr1', 3100000, 3200000], ['chr1', 3000297, 3000387] ] correct = [0.0, 0.2783213414900005, 0.37037220081612465, 0.733430027961731] result = bedGraph.stats('mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0, 0.27832134, 0.3703722, 0.61754806] result = bedGraph.stats('approx_mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 4.400169849395752, 5.133600234985352, 0.733430027961731] result = bedGraph.stats('max', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.0, 0.0, 0.733430027961731] result = bedGraph.stats('min', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.5458894746933545, 0.645887192684785, 0.0] result = bedGraph.stats('std', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 # LOWERED STANDARD FOR ROUNDING PROBLEMS correct = [0.0, 27832.1338, 37037.21976, 66.0087] result = bedGraph.stats('sum', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.1 test_intervals = [ ['chr4', 0, 50000], ['chr4', 3000000, 3100000], ['chr4', 3100000, 3200000], ['chr4', 3049939, 3049957] ] correct = [0.0, 0.16491732227414846, 0.028100075026154518, 0.4027400016784668] result = bedGraph.stats('mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0, 0.16491732, 0.02810007, 0.213423] result = bedGraph.stats('approx_mean', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 2.8125500679016113, 2.200079917907715, 0.4027400016784668] result = bedGraph.stats('max', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.0, 0.0, 0.4027400016784668] result = bedGraph.stats('min', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 0.3551471309944084, 0.15098161797799015, 0.0] result = bedGraph.stats('std', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 correct = [0.0, 16491.7322, 2810.00742, 7.24932] result = bedGraph.stats('sum', test_intervals) for i in range(len(result)): assert abs(result[i] - correct[i]) < 0.0001 print("Passed all bigwig tests!") print("Passed all extensive tests!")
32.834146
105
0.696776
989
6,731
4.659252
0.12639
0.024306
0.018229
0.088542
0.930122
0.930122
0.894965
0.894965
0.894965
0.894965
0
0.22751
0.144555
6,731
204
106
32.995098
0.572768
0.014708
0
0.845679
0
0
0.098823
0.028817
0
0
0
0
0.166667
1
0
false
0.024691
0.018519
0
0.018519
0.04321
0
0
0
null
0
0
0
1
1
1
1
1
1
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
80915bdec5df549c72e6780f39986ebb9f674411
130
py
Python
IOLoop/Reactor/__init__.py
hc-tec/redis-py
28172eb4de2bfc61b0ff1023dbf7b52d4f4ba47c
[ "MIT" ]
1
2021-11-24T07:54:17.000Z
2021-11-24T07:54:17.000Z
IOLoop/Reactor/__init__.py
hc-tec/pydis
28172eb4de2bfc61b0ff1023dbf7b52d4f4ba47c
[ "MIT" ]
1
2021-11-13T15:08:14.000Z
2021-11-13T15:08:14.000Z
IOLoop/Reactor/__init__.py
hc-tec/redis-py
28172eb4de2bfc61b0ff1023dbf7b52d4f4ba47c
[ "MIT" ]
1
2021-11-13T14:57:57.000Z
2021-11-13T14:57:57.000Z
from IOLoop.Reactor.reactor import Reactor from IOLoop.Reactor.acceptor import Acceptor from IOLoop.Reactor.event import ReEvent
26
44
0.853846
18
130
6.166667
0.388889
0.27027
0.459459
0
0
0
0
0
0
0
0
0
0.1
130
4
45
32.5
0.948718
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
80f1a3ecdc57614e984fb5e71f6c6b2dd2e5a724
74,569
py
Python
tests/ut/python/dataset/test_datasets_generator.py
httpsgithu/mindspore
c29d6bb764e233b427319cb89ba79e420f1e2c64
[ "Apache-2.0" ]
1
2022-02-23T09:13:43.000Z
2022-02-23T09:13:43.000Z
tests/ut/python/dataset/test_datasets_generator.py
949144093/mindspore
c29d6bb764e233b427319cb89ba79e420f1e2c64
[ "Apache-2.0" ]
null
null
null
tests/ut/python/dataset/test_datasets_generator.py
949144093/mindspore
c29d6bb764e233b427319cb89ba79e420f1e2c64
[ "Apache-2.0" ]
null
null
null
# Copyright 2019 Huawei Technologies Co., Ltd # # Licensed under the Apache License, Version 2.0 (the "License"); # you may not use this file except in compliance with the License. # You may obtain a copy of the License at # # http://www.apache.org/licenses/LICENSE-2.0 # # Unless required by applicable law or agreed to in writing, software # distributed under the License is distributed on an "AS IS" BASIS, # WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied. # See the License for the specific language governing permissions and # limitations under the License. # ============================================================================== import copy import numpy as np import pytest import mindspore import mindspore.common.dtype as mstype import mindspore.dataset as ds import mindspore.dataset.engine.iterators as it from mindspore import log as logger from mindspore import Tensor import mindspore.ops as ops # Generate 1d int numpy array from 0 - 63 def generator_1d(): for i in range(64): yield (np.array([i]),) class DatasetGenerator: def __init__(self): pass def __getitem__(self, item): return (np.array([item]),) def __len__(self): return 10 class DatasetGeneratorLarge: def __init__(self): self.data = np.array(range(4000)) def __getitem__(self, item): return (self.data + item, self.data *10) def __len__(self): return 10 class DatasetGeneratorMixed: def __init__(self): pass def __getitem__(self, item): flatten = ops.Flatten() x = Tensor(np.ones(shape=[2, 3]), mindspore.float32) output = flatten(x) return (output.asnumpy(),) def __len__(self): return 10 def test_generator_0(): """ Test 1D Generator """ logger.info("Test 1D Generator : 0 - 63") # apply dataset operations data1 = ds.GeneratorDataset(generator_1d, ["data"]) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(item["data"], golden) i = i + 1 # Generate md int numpy array from [[0, 1], [2, 3]] to [[63, 64], [65, 66]] def generator_md(): for i in range(64): yield (np.array([[i, i + 1], [i + 2, i + 3]]),) def test_generator_1(): """ Test MD Generator """ logger.info("Test MD Generator : 0 - 63, with shape [2, 2]") # apply dataset operations data1 = ds.GeneratorDataset(generator_md, ["data"]) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item["data"], golden) i = i + 1 # Generate two columns, the first column is from Generator1D, the second column is from GeneratorMD def generator_mc(maxid=64): for i in range(maxid): yield (np.array([i]), np.array([[i, i + 1], [i + 2, i + 3]])) def test_generator_2(): """ Test multi column generator """ logger.info("Test multi column generator") # apply dataset operations data1 = ds.GeneratorDataset(generator_mc, ["col0", "col1"]) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(item["col0"], golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item["col1"], golden) i = i + 1 def test_generator_3(): """ Test 1D Generator + repeat(4) """ logger.info("Test 1D Generator : 0 - 63 + Repeat(4)") # apply dataset operations data1 = ds.GeneratorDataset(generator_1d, ["data"]) data1 = data1.repeat(4) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(item["data"], golden) i = i + 1 if i == 64: i = 0 def test_generator_4(): """ Test fixed size 1D Generator + batch """ logger.info("Test 1D Generator : 0 - 63 + batch(4)") # apply dataset operations data1 = ds.GeneratorDataset(generator_1d, ["data"]) data1 = data1.batch(4) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([[i], [i + 1], [i + 2], [i + 3]]) np.testing.assert_array_equal(item["data"], golden) i = i + 4 def generator_with_type(t): for i in range(64): yield (np.array([i], dtype=t),) def type_tester(t): logger.info("Test with Type {}".format(t.__name__)) # apply dataset operations data1 = ds.GeneratorDataset((lambda: generator_with_type(t)), ["data"]) data1 = data1.batch(4) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t) np.testing.assert_array_equal(item["data"], golden) i = i + 4 def test_generator_5(): """ Test 1D Generator on different data type """ logger.info("Test 1D Generator on all data types") types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32, np.float64] for t in types: type_tester(t) def type_tester_with_type_check(t, c): logger.info("Test with Type {}".format(t.__name__)) # apply dataset operations data1 = ds.GeneratorDataset((lambda: generator_with_type(t)), ["data"], column_types=[c]) data1 = data1.batch(4) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t) np.testing.assert_array_equal(item["data"], golden) i = i + 4 def test_generator_6(): """ Test 1D Generator on different data type with type check """ logger.info("Test 1D Generator on all data types with type check") np_types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32, np.float64] de_types = [mstype.int8, mstype.int16, mstype.int32, mstype.int64, mstype.uint8, mstype.uint16, mstype.uint32, mstype.uint64, mstype.float32, mstype.float64] for i, _ in enumerate(np_types): type_tester_with_type_check(np_types[i], de_types[i]) def generator_with_type_2c(t): for i in range(64): yield (np.array([i], dtype=t), np.array([i], dtype=t)) def type_tester_with_type_check_2c(t, c): logger.info("Test with Type {}".format(t.__name__)) # apply dataset operations data1 = ds.GeneratorDataset((lambda: generator_with_type_2c(t)), ["data0", "data1"], column_types=c) data1 = data1.batch(4) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t) np.testing.assert_array_equal(item["data0"], golden) i = i + 4 def test_generator_7(): """ Test 2 column Generator on different data type with type check """ logger.info("Test 2 column Generator on all data types with type check") np_types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32, np.float64] de_types = [mstype.int8, mstype.int16, mstype.int32, mstype.int64, mstype.uint8, mstype.uint16, mstype.uint32, mstype.uint64, mstype.float32, mstype.float64] for i, _ in enumerate(np_types): type_tester_with_type_check_2c(np_types[i], [None, de_types[i]]) def test_generator_8(): """ Test multi column generator with few mapops """ logger.info("Test multi column generator with mapops to check the order too") # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"]) data1 = data1.map(operations=(lambda x: x * 3), input_columns="col0", output_columns="out0", num_parallel_workers=2) data1 = data1.map(operations=(lambda x: (x * 7, x)), input_columns="col1", output_columns=["out1", "out2"], num_parallel_workers=2, column_order=["out0", "out1", "out2"]) data1 = data1.map(operations=(lambda x: x + 1), input_columns="out2", output_columns="out2", num_parallel_workers=2) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i * 3]) np.testing.assert_array_equal(item["out0"], golden) golden = np.array([[i * 7, (i + 1) * 7], [(i + 2) * 7, (i + 3) * 7]]) np.testing.assert_array_equal(item["out1"], golden) golden = np.array([[i + 1, i + 2], [i + 3, i + 4]]) np.testing.assert_array_equal(item["out2"], golden) i = i + 1 def test_generator_9(): """ Test map column order when len(input_columns) == len(output_columns). """ logger.info("Test map column order when len(input_columns) == len(output_columns).") # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["image", "label"]) data2 = ds.GeneratorDataset(generator_mc(2048), ["label", "image"]) data1 = data1.map(operations=(lambda x: x * 3), input_columns="label", num_parallel_workers=4) data2 = data2.map(operations=(lambda x: x * 3), input_columns="label", num_parallel_workers=4) # Expected column order is not changed. # data1 = data[0] is "image" and data[1] is "label" # data2 = data[0] is "label" and data[1] is "image" i = 0 for data1, data2 in zip(data1, data2): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(data1[0].asnumpy(), golden) golden = np.array([[i * 3, (i + 1) * 3], [(i + 2) * 3, (i + 3) * 3]]) np.testing.assert_array_equal(data1[1].asnumpy(), golden) golden = np.array([i * 3]) np.testing.assert_array_equal(data2[0].asnumpy(), golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(data2[1].asnumpy(), golden) i = i + 1 def test_generator_10(): """ Test map column order when len(input_columns) != len(output_columns). """ logger.info("Test map column order when len(input_columns) != len(output_columns).") # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"]) data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns="col1", output_columns=["out1", "out2"], column_order=['col0', 'out1', 'out2'], num_parallel_workers=2) # Expected column order is |col0|out1|out2| i = 0 for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True): golden = np.array([i]) np.testing.assert_array_equal(item[0], golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item[1], golden) golden = np.array([[i * 5, (i + 1) * 5], [(i + 2) * 5, (i + 3) * 5]]) np.testing.assert_array_equal(item[2], golden) i = i + 1 def test_generator_11(): """ Test map column order when len(input_columns) != len(output_columns). """ logger.info("Test map column order when len(input_columns) != len(output_columns), " "and column_order drops some columns.") # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"]) data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns="col1", output_columns=["out1", "out2"], column_order=['out1', 'out2'], num_parallel_workers=2) # Expected column order is |out1|out2| i = 0 for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True): # len should be 2 because col0 is dropped (not included in column_order) assert len(item) == 2 golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item[0], golden) golden = np.array([[i * 5, (i + 1) * 5], [(i + 2) * 5, (i + 3) * 5]]) np.testing.assert_array_equal(item[1], golden) i = i + 1 def test_generator_12(): """ Test map column order when input_columns and output_columns are None. """ logger.info("Test map column order when input_columns and output_columns are None.") # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"]) data1 = data1.map(operations=(lambda x: (x * 5)), num_parallel_workers=2) # Expected column order is |col0|col1| i = 0 for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True): assert len(item) == 2 golden = np.array([i * 5]) np.testing.assert_array_equal(item[0], golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item[1], golden) i = i + 1 data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"]) data1 = data1.map(operations=(lambda x: (x * 5)), column_order=["col1", "col0"], num_parallel_workers=2) # Expected column order is |col0|col1| i = 0 for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True): assert len(item) == 2 golden = np.array([i * 5]) np.testing.assert_array_equal(item[1], golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item[0], golden) i = i + 1 def test_generator_13(): """ Test map column order when input_columns is None. """ logger.info("Test map column order when input_columns is None.") # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"]) data1 = data1.map(operations=(lambda x: (x * 5)), output_columns=["out0"], num_parallel_workers=2) # Expected column order is |out0|col1| i = 0 for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True): assert len(item) == 2 golden = np.array([i * 5]) np.testing.assert_array_equal(item[0], golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item[1], golden) i = i + 1 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary # len should be 2 because col0 is dropped (not included in column_order) assert len(item) == 2 golden = np.array([i * 5]) np.testing.assert_array_equal(item["out0"], golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item["col1"], golden) i = i + 1 def test_generator_14(): """ Test 1D Generator MP + CPP sampler """ logger.info("Test 1D Generator MP : 0 - 63") # Sometimes there are some ITERATORS left in ITERATORS_LIST when run all UTs together, # and cause core dump and blocking in this UT. Add cleanup() here to fix it. it._cleanup() # pylint: disable=W0212 # Reduce memory needed by reducing queue size prefetch_original = ds.config.get_prefetch_size() ds.config.set_prefetch_size(1) source = [(np.array([x]),) for x in range(256)] ds1 = ds.GeneratorDataset(source, ["data"], sampler=ds.SequentialSampler(), num_parallel_workers=4, max_rowsize=1).repeat(2) i = 0 for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(data["data"], golden) i = i + 1 if i == 256: i = 0 ds.config.set_prefetch_size(prefetch_original) def test_generator_15(): """ Test 1D Generator MP + Python sampler """ logger.info("Test 1D Generator MP : 0 - 63") ## Reduce memory needed by reducing queue size prefetch_original = ds.config.get_prefetch_size() ds.config.set_prefetch_size(1) sampler = [x for x in range(256)] source = [(np.array([x]),) for x in range(256)] ds1 = ds.GeneratorDataset(source, ["data"], sampler=sampler, num_parallel_workers=4, max_rowsize=1).repeat(1) i = 0 for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(data["data"], golden) i = i + 1 if i == 256: i = 0 ds.config.set_prefetch_size(prefetch_original) def test_generator_16(): """ Test multi column generator Mp + CPP sampler """ logger.info("Test multi column generator") source = [(np.array([x]), np.array([x + 1])) for x in range(256)] # apply dataset operations data1 = ds.GeneratorDataset(source, ["col0", "col1"], sampler=ds.SequentialSampler()) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(item["col0"], golden) golden = np.array([i + 1]) np.testing.assert_array_equal(item["col1"], golden) i = i + 1 def test_generator_17(): """ Test multi column generator Mp + Python sampler """ logger.info("Test multi column generator") sampler = [x for x in range(256)] source = [(np.array([x]), np.array([x + 1])) for x in range(256)] # apply dataset operations data1 = ds.GeneratorDataset(source, ["col0", "col1"], sampler=sampler) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(item["col0"], golden) golden = np.array([i + 1]) np.testing.assert_array_equal(item["col1"], golden) i = i + 1 def test_generator_18(): """ Test multiprocessing flag (same as test 13 with python_multiprocessing=True flag) """ logger.info("Test map column order when input_columns is None.") # Reduce shm usage by disabling this optimization mem_original = ds.config.get_enable_shared_mem() ds.config.set_enable_shared_mem(False) # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"], python_multiprocessing=True) data1 = data1.map(operations=(lambda x: (x * 5)), output_columns=["out0"], num_parallel_workers=2, python_multiprocessing=True) # Expected column order is |out0|col1| i = 0 for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True): assert len(item) == 2 golden = np.array([i * 5]) np.testing.assert_array_equal(item[0], golden) golden = np.array([[i, i + 1], [i + 2, i + 3]]) np.testing.assert_array_equal(item[1], golden) i = i + 1 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary # len should be 2 because col0 is dropped (not included in column_order) assert len(item) == 2 golden = np.array([i * 5]) np.testing.assert_array_equal(item["out0"], golden) ds.config.set_enable_shared_mem(mem_original) def test_generator_19(): """ Test multiprocessing flag with 2 different large columns """ logger.info("Test map column order when input_columns is None.") # apply dataset operations data1 = ds.GeneratorDataset(DatasetGeneratorLarge(), ["col0", "col1"], python_multiprocessing=True, shuffle=False) # Expected column order is |out0|col1| i = 0 for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True): assert len(item) == 2 golden = np.array(range(4000)) + i np.testing.assert_array_equal(item[0], golden) golden = np.array(range(4000)) * 10 np.testing.assert_array_equal(item[1], golden) i = i + 1 class RandomAccessDataset: def __init__(self): self.__data = np.random.sample((5, 1)) def __getitem__(self, item): return self.__data[item] def __len__(self): return 5 class RandomAccessDatasetWithoutLen: def __init__(self): self.__data = np.random.sample((5, 1)) def __getitem__(self, item): return self.__data[item] class IterableDataset: def __init__(self): self.count = 0 self.max = 10 def __iter__(self): return self def __next__(self): if self.count >= self.max: raise StopIteration self.count += 1 return (np.array(self.count),) def test_generator_20(): """ Test mappable and unmappable dataset as source for GeneratorDataset. """ logger.info("Test mappable and unmappable dataset as source for GeneratorDataset.") # Mappable dataset data1 = ds.GeneratorDataset(RandomAccessDataset(), ["col0"]) dataset_size1 = data1.get_dataset_size() assert dataset_size1 == 5 # Mappable dataset without __len__ data2 = ds.GeneratorDataset(RandomAccessDatasetWithoutLen(), ["col0"]) try: data2.get_dataset_size() except RuntimeError as e: assert "'__len__' method is required" in str(e) # Unmappable dataset data3 = ds.GeneratorDataset(IterableDataset(), ["col0"]) dataset_size3 = data3.get_dataset_size() assert dataset_size3 == 10 def test_generator_error_1(): def generator_np(): for i in range(64): yield (np.array([{i}]),) with pytest.raises(RuntimeError) as info: data1 = ds.GeneratorDataset(generator_np, ["data"]) for _ in data1: pass assert "Data type of 1th item of the input or its converted Numpy array is expected" in str(info.value) def test_generator_error_2(): def generator_np(): for i in range(64): yield ({i},) with pytest.raises(RuntimeError) as info: data1 = ds.GeneratorDataset(generator_np, ["data"]) for _ in data1: pass assert "Data type of 1th item of the input or its converted Numpy array is expected" in str(info.value) def test_generator_error_3(): with pytest.raises(ValueError) as info: # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["label", "image"]) data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns=["label"], output_columns=["out1", "out2"], num_parallel_workers=2) for _ in data1: pass assert "When length of input_columns and output_columns are not equal, column_order must be specified." in \ str(info.value) def test_generator_error_4(): with pytest.raises(RuntimeError) as info: # apply dataset operations data1 = ds.GeneratorDataset(generator_mc(2048), ["label", "image"]) data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns=["label"], num_parallel_workers=2) for _ in data1: pass assert "the number of columns returned in 'map' operations should match the number of 'output_columns'"\ in str(info.value) def test_generator_sequential_sampler(): source = [(np.array([x]),) for x in range(64)] ds1 = ds.GeneratorDataset(source, ["data"], sampler=ds.SequentialSampler()) i = 0 for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(data["data"], golden) i = i + 1 def test_generator_random_sampler(): source = [(np.array([x]),) for x in range(64)] ds1 = ds.GeneratorDataset(source, ["data"], shuffle=True) for _ in ds1.create_dict_iterator(num_epochs=1): # each data is a dictionary pass def test_generator_distributed_sampler(): source = [(np.array([x]),) for x in range(64)] for sid in range(8): ds1 = ds.GeneratorDataset(source, ["data"], shuffle=False, num_shards=8, shard_id=sid) i = sid for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([i]) np.testing.assert_array_equal(data["data"], golden) i = i + 8 def test_generator_num_samples(): source = [(np.array([x]),) for x in range(64)] num_samples = 32 ds1 = ds.GeneratorDataset(source, ["data"], sampler=ds.SequentialSampler(num_samples=num_samples)) ds2 = ds.GeneratorDataset(source, ["data"], sampler=[i for i in range(32)], num_samples=num_samples) ds3 = ds.GeneratorDataset(generator_1d, ["data"], num_samples=num_samples) count = 0 for _ in ds1.create_dict_iterator(num_epochs=1): count = count + 1 assert count == num_samples count = 0 for _ in ds2.create_dict_iterator(num_epochs=1): count = count + 1 assert count == num_samples count = 0 for _ in ds3.create_dict_iterator(num_epochs=1): count = count + 1 assert count == num_samples def test_generator_num_samples_underflow(): source = [(np.array([x]),) for x in range(64)] num_samples = 256 ds2 = ds.GeneratorDataset(source, ["data"], sampler=[i for i in range(64)], num_samples=num_samples) ds3 = ds.GeneratorDataset(generator_1d, ["data"], num_samples=num_samples) count = 0 for _ in ds2.create_dict_iterator(num_epochs=1): count = count + 1 assert count == 64 count = 0 for _ in ds3.create_dict_iterator(num_epochs=1): count = count + 1 assert count == 64 def type_tester_with_type_check_2c_schema(t, c): logger.info("Test with Type {}".format(t.__name__)) schema = ds.Schema() schema.add_column("data0", c[0]) schema.add_column("data1", c[1]) # apply dataset operations data1 = ds.GeneratorDataset((lambda: generator_with_type_2c(t)), schema=schema) data1 = data1.batch(4) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t) np.testing.assert_array_equal(item["data0"], golden) i = i + 4 def test_generator_schema(): """ Test 2 column Generator on different data type with type check with schema input """ logger.info("Test 2 column Generator on all data types with type check") np_types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32, np.float64] de_types = [mstype.int8, mstype.int16, mstype.int32, mstype.int64, mstype.uint8, mstype.uint16, mstype.uint32, mstype.uint64, mstype.float32, mstype.float64] for i, _ in enumerate(np_types): type_tester_with_type_check_2c_schema(np_types[i], [de_types[i], de_types[i]]) def test_generator_dataset_size_0(): """ Test GeneratorDataset get_dataset_size by iterator method. """ logger.info("Test 1D Generator : 0 - 63 get_dataset_size") data1 = ds.GeneratorDataset(generator_1d, ["data"]) data_size = data1.get_dataset_size() num_rows = 0 for _ in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary num_rows = num_rows + 1 assert data_size == num_rows def test_generator_dataset_size_1(): """ Test GeneratorDataset get_dataset_size by __len__ method. """ logger.info("Test DatasetGenerator get_dataset_size") dataset_generator = DatasetGenerator() data1 = ds.GeneratorDataset(dataset_generator, ["data"]) data_size = data1.get_dataset_size() num_rows = 0 for _ in data1.create_dict_iterator(num_epochs=1): num_rows = num_rows + 1 assert data_size == num_rows def test_generator_dataset_size_2(): """ Test GeneratorDataset + repeat get_dataset_size """ logger.info("Test 1D Generator + repeat get_dataset_size") data1 = ds.GeneratorDataset(generator_1d, ["data"]) data1 = data1.repeat(2) data_size = data1.get_dataset_size() num_rows = 0 for _ in data1.create_dict_iterator(num_epochs=1): num_rows = num_rows + 1 assert data_size == num_rows def test_generator_dataset_size_3(): """ Test GeneratorDataset + batch get_dataset_size """ logger.info("Test 1D Generator + batch get_dataset_size") data1 = ds.GeneratorDataset(generator_1d, ["data"]) data1 = data1.batch(4) data_size = data1.get_dataset_size() num_rows = 0 for _ in data1.create_dict_iterator(num_epochs=1): num_rows += 1 assert data_size == num_rows def test_generator_dataset_size_4(): """ Test GeneratorDataset + num_shards """ logger.info("Test 1D Generator : 0 - 63 + num_shards get_dataset_size") dataset_generator = DatasetGenerator() data1 = ds.GeneratorDataset(dataset_generator, ["data"], num_shards=3, shard_id=0) data_size = data1.get_dataset_size() num_rows = 0 for _ in data1.create_dict_iterator(num_epochs=1): # each data is a dictionary num_rows = num_rows + 1 assert data_size == num_rows def test_generator_dataset_size_5(): """ Test get_dataset_size after create_dict_iterator """ logger.info("Test get_dataset_size after create_dict_iterator") dataset_generator = DatasetGenerator() data1 = ds.GeneratorDataset(dataset_generator, ["data"], num_shards=3, shard_id=0) num_rows = 0 for _ in data1.create_dict_iterator(num_epochs=1): # each data is a dictionary num_rows = num_rows + 1 data_size = data1.get_dataset_size() assert data_size == num_rows def manual_test_generator_keyboard_interrupt(): """ Test keyboard_interrupt """ logger.info("Test 1D Generator MP : 0 - 63") class MyDS(): def __getitem__(self, item): while True: pass def __len__(self): return 1024 ds1 = ds.GeneratorDataset(MyDS(), ["data"], num_parallel_workers=4).repeat(2) for _ in ds1.create_dict_iterator(num_epochs=1): # each data is a dictionary pass def test_explicit_deepcopy(): """ Test explicit_deepcopy """ logger.info("Test explicit_deepcopy") ds1 = ds.NumpySlicesDataset([1, 2], shuffle=False) ds2 = copy.deepcopy(ds1) for d1, d2 in zip(ds1, ds2): assert d1 == d2 def test_func_generator_dataset_005(): """ generator: class __getitem__ """ result = [np.random.randn(242, 242, 242), np.random.randn(42, 24, 442)] class MyData(): def __init__(self, input_para): self.data = input_para def __getitem__(self, item): return (Tensor(self.data[0]), Tensor(self.data[1])) def __len__(self): return 2 column_names = ["col1", "col2"] dataset = ds.GeneratorDataset(MyData(result), column_names) i = 0 for data in dataset.create_dict_iterator(num_epochs=1, output_numpy=True): assert "col1" in str(data.keys()) assert (data["col1"] == result[0]).all() assert (data["col2"] == result[1]).all() i += 1 assert i == 2 def test_func_generator_dataset_with_zip_source(): """ Feature: verify the source is zip Description: the source input is zip Expectation: success """ def synthetic_data(w, b, num_examples): """生成 y = Xw + b + 噪声。""" X = np.random.normal(0, 1, (num_examples, len(w))) y = np.matmul(X, w) + b y += np.random.normal(0, 0.01, y.shape) return X.astype(np.float32), y.reshape((-1, 1)).astype(np.float32) true_w = np.array([2, -3.4]) true_b = 4.2 features, labels = synthetic_data(true_w, true_b, 10) def load_array(data_arrays, column_names, batch_size, is_train=True): """构造一个MindSpore数据迭代器。""" dataset = ds.GeneratorDataset(data_arrays, column_names, shuffle=is_train) dataset = dataset.batch(batch_size) return dataset batch_size = 2 dataset = load_array(zip(features, labels), ['features', 'labels'], batch_size) count = 0 epochs = 10 dataset_iter = dataset.create_dict_iterator(num_epochs=epochs, output_numpy=True) for _ in range(epochs): for _ in dataset_iter: count += 1 assert count == 50 def test_generator_mixed_operator(): """ Feature: Test adding computing operator into user defined dataset Description: will decrease num_parallel_worker into 1 Expectation: success """ logger.info("Test adding computing operator into user defined dataset.") # create dataset data1 = ds.GeneratorDataset(DatasetGeneratorMixed(), ["col0"], shuffle=False, python_multiprocessing=False) assert data1.num_parallel_workers == 1 for _ in data1.create_tuple_iterator(num_epochs=1): pass def test_generator_single_input_0(): """ Feature: Test single int input Description: input int Expectation: success """ def generator_int(): for i in range(64): yield i class RandomAccessDatasetInner: def __init__(self): self.__data = [i for i in range(64)] def __getitem__(self, item): return self.__data[item] def __len__(self): return 64 class SequentialAccessDataset: def __init__(self): self.__data = [i for i in range(64)] self.__index = 0 def __next__(self): if self.__index >= 64: raise StopIteration item = self.__data[self.__index] self.__index += 1 return item def __iter__(self): self.__index = 0 return self def __len__(self): return 64 def assert_generator_single_input_0(data): # apply dataset operations data1 = ds.GeneratorDataset(data, ["data"], shuffle=False) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array(i) np.testing.assert_equal(item["data"], golden) i = i + 1 assert_generator_single_input_0(generator_int) assert_generator_single_input_0(RandomAccessDatasetInner()) assert_generator_single_input_0(SequentialAccessDataset()) def test_generator_single_input_1(): """ Feature: Test single float input Description: input float Expectation: success """ def generator_float(): for i in range(64): yield i * 0.1 class RandomAccessDatasetInner: def __init__(self): self.__data = [i for i in range(64)] def __getitem__(self, item): return self.__data[item] * 0.1 def __len__(self): return 64 class SequentialAccessDataset: def __init__(self): self.__data = [i for i in range(64)] self.__index = 0 def __next__(self): if self.__index >= 64: raise StopIteration item = self.__data[self.__index] * 0.1 self.__index += 1 return item def __iter__(self): self.__index = 0 return self def __len__(self): return 64 def assert_generator_single_input_1(data): # apply dataset operations data1 = ds.GeneratorDataset(data, ["data"], shuffle=False) i = 0.0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.array(i) np.testing.assert_almost_equal(item["data"], golden) i = i + 0.1 assert_generator_single_input_1(generator_float) assert_generator_single_input_1(RandomAccessDatasetInner()) assert_generator_single_input_1(SequentialAccessDataset()) def test_generator_single_input_2(): """ Feature: Test single str input Description: input str Expectation: success """ def generator_str(): for i in range(64): yield chr(ord('a') + i) class RandomAccessDatasetInner: def __init__(self): self.__data = [i for i in range(64)] def __getitem__(self, item): return chr(ord('a') + self.__data[item]) def __len__(self): return 64 class SequentialAccessDataset: def __init__(self): self.__data = [i for i in range(64)] self.__index = 0 def __next__(self): if self.__index >= 64: raise StopIteration item = chr(ord('a') + self.__data[self.__index]) self.__index += 1 return item def __iter__(self): self.__index = 0 return self def __len__(self): return 64 def assert_generator_single_input_2(data): # apply dataset operations data1 = ds.GeneratorDataset(data, ["data"], shuffle=False) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary s = chr(ord('a') + i) golden = np.array(bytes(s, encoding='utf8')) np.testing.assert_array_equal(item["data"], golden) i = i + 1 assert_generator_single_input_2(generator_str) assert_generator_single_input_2(RandomAccessDatasetInner()) assert_generator_single_input_2(SequentialAccessDataset()) def test_generator_single_input_3(): """ Feature: Test single bytes input Description: input bytes Expectation: success """ def generator_bytes(): for i in range(64): yield bytes('a' * i, encoding='UTF-8') class RandomAccessDatasetInner: def __init__(self): self.__data = [bytes('a' * i, encoding='UTF-8') for i in range(64)] def __getitem__(self, item): return self.__data[item] def __len__(self): return 64 class SequentialAccessDataset: def __init__(self): self.__data = [bytes('a' * i, encoding='UTF-8') for i in range(64)] self.__index = 0 def __next__(self): if self.__index >= 64: raise StopIteration item = self.__data[self.__index] self.__index += 1 return item def __iter__(self): self.__index = 0 return self def __len__(self): return 64 def assert_generator_single_input_3(data): # apply dataset operations data1 = ds.GeneratorDataset(data, ["data"], shuffle=False) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary b = bytes('a' * i, encoding='UTF-8') golden = np.frombuffer(b, dtype=np.uint8) np.testing.assert_array_equal(item["data"], golden) i = i + 1 assert_generator_single_input_3(generator_bytes) assert_generator_single_input_3(RandomAccessDatasetInner()) assert_generator_single_input_3(SequentialAccessDataset()) def test_generator_single_input_4(): """ Feature: Test single Tensor input Description: input Tensor Expectation: success """ def generator_tensor(): for i in range(64): yield Tensor(i) class RandomAccessDatasetInner: def __init__(self): self.__data = [Tensor(i) for i in range(64)] def __getitem__(self, item): return self.__data[item] def __len__(self): return 64 class SequentialAccessDataset: def __init__(self): self.__data = [Tensor(i) for i in range(64)] self.__index = 0 def __next__(self): if self.__index >= 64: raise StopIteration item = self.__data[self.__index] self.__index += 1 return item def __iter__(self): self.__index = 0 return self def __len__(self): return 64 def assert_generator_single_input_4(data): # apply dataset operations data1 = ds.GeneratorDataset(data, ["data"], shuffle=False) i = 0 for item in data1.create_dict_iterator(num_epochs=1): # each data is a dictionary golden = Tensor(i) assert item["data"] == golden i = i + 1 assert_generator_single_input_4(generator_tensor) assert_generator_single_input_4(RandomAccessDatasetInner()) assert_generator_single_input_4(SequentialAccessDataset()) def test_generator_single_input_5(): """ Feature: Test single np.array input Description: input np.array Expectation: success """ def generator_np(): for i in range(64): yield np.ones(i) class RandomAccessDatasetInner: def __init__(self): self.__data = [np.ones(i) for i in range(64)] def __getitem__(self, item): return self.__data[item] def __len__(self): return 64 class SequentialAccessDataset: def __init__(self): self.__data = [np.ones(i) for i in range(64)] self.__index = 0 def __next__(self): if self.__index >= 64: raise StopIteration item = self.__data[self.__index] self.__index += 1 return item def __iter__(self): self.__index = 0 return self def __len__(self): return 64 def assert_generator_single_input_5(data): # apply dataset operations data1 = ds.GeneratorDataset(data, ["data"], shuffle=False) i = 0 for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary golden = np.ones(i) np.testing.assert_array_equal(item["data"], golden) i = i + 1 assert_generator_single_input_5(generator_np) assert_generator_single_input_5(RandomAccessDatasetInner()) assert_generator_single_input_5(SequentialAccessDataset()) def test_generator_single_input_6(): """ Feature: Test single np.array input whose dtype is object Description: input np.array Expectation: throw exception """ def generator_nested_np(): for i in range(64): yield np.array([[i, i + 1], [i, i + 1, i + 2]]) class RandomAccessDatasetInner: def __init__(self): self.__data = [np.array([[i, i + 1], [i, i + 1, i + 2]]) for i in range(64)] def __getitem__(self, item): return self.__data[item] def __len__(self): return 64 class SequentialAccessDatasetInner: def __init__(self): self.__data = [np.array([[i, i + 1], [i, i + 1, i + 2]]) for i in range(64)] self.__index = 0 def __next__(self): if self.__index >= 64: raise StopIteration item = self.__data[self.__index] self.__index += 1 return item def __iter__(self): self.__index = 0 return self def __len__(self): return 64 def assert_generator_single_input_6(data): # apply dataset operations with pytest.raises(RuntimeError) as info: data1 = ds.GeneratorDataset(data, ["data"], shuffle=False) for _ in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary pass assert " Data type of the input or its converted Numpy array is expected" in str(info.value) assert_generator_single_input_6(generator_nested_np) assert_generator_single_input_6(RandomAccessDatasetInner()) assert_generator_single_input_6(SequentialAccessDatasetInner()) def test_generator_with_single_numpy(): """ Feature: Test GeneratorDataset with single numpy and multi columns when use __getitem__ Description: single numpy, tuple numpy with single columns and multi columns Expectation: success """ class get_dataset_generator: def __init__(self, value): np.random.seed(58) self.__value = value def __getitem__(self, index): return self.__value def __len__(self): return 20 def test_generator_one_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == value).all() count += 1 assert count == 20 # test user define one column numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_one_column(numpy_1) test_generator_one_column(numpy_2) test_generator_one_column(numpy_3) test_generator_one_column(numpy_4) test_generator_one_column(numpy_5) test_generator_one_column(numpy_6) test_generator_one_column(numpy_7) test_generator_one_column(numpy_8) test_generator_one_column(numpy_9) test_generator_one_column(numpy_10) tuple_1 = (numpy_7,) dataset_generator = get_dataset_generator(tuple_1) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == tuple_1[0]).all() count += 1 assert count == 20 tuple_2 = (numpy_6, numpy_7) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value) tuple_4 = (numpy_4, numpy_5, numpy_6, numpy_7) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_4) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:4" in str(info.value) # test user define two column def test_generator_two_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 with pytest.raises(RuntimeError) as info: for data in dataset.create_dict_iterator(output_numpy=True): print(data) count += 1 assert count == 20 assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:2 and number of returned NumPy array is:1" in str(info.value) numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_two_column(numpy_1) test_generator_two_column(numpy_2) test_generator_two_column(numpy_3) test_generator_two_column(numpy_4) test_generator_two_column(numpy_5) test_generator_two_column(numpy_6) test_generator_two_column(numpy_7) test_generator_two_column(numpy_8) test_generator_two_column(numpy_9) test_generator_two_column(numpy_10) tuple_1 = (numpy_7,) test_generator_two_column(tuple_1) tuple_2 = (numpy_2, numpy_3) dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == numpy_2).all() assert (data["label"] == numpy_3).all() count += 1 assert count == 20 tuple_3 = (numpy_4, numpy_5, numpy_6) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:2 and number of returned NumPy array is:3" in str(info.value) # test user define three column def test_generator_three_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 with pytest.raises(RuntimeError) as info: for data in dataset.create_dict_iterator(output_numpy=True): print(data) count += 1 assert count == 20 assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:3 and number of returned NumPy array is:1" in str(info.value) numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_three_column(numpy_1) test_generator_three_column(numpy_2) test_generator_three_column(numpy_3) test_generator_three_column(numpy_4) test_generator_three_column(numpy_5) test_generator_three_column(numpy_6) test_generator_three_column(numpy_7) test_generator_three_column(numpy_8) test_generator_three_column(numpy_9) test_generator_three_column(numpy_10) tuple_1 = (numpy_7,) test_generator_three_column(tuple_1) tuple_2 = (numpy_2, numpy_3) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:3 and number of returned NumPy array is:2" in str(info.value) tuple_3 = (numpy_4, numpy_5, numpy_6) dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == numpy_4).all() assert (data["label"] == numpy_5).all() assert (data["label2"] == numpy_6).all() count += 1 assert count == 20 def test_generator_with_single_numpy_with_next(): """ Feature: Test GeneratorDataset with single numpy and multi columns when use __next__ Description: single numpy, tuple numpy with single columns and multi columns Expectation: success """ class get_dataset_generator: def __init__(self, value): np.random.seed(58) self.__value = value self.__index = 0 def __next__(self): if self.__index >= 20: raise StopIteration self.__index += 1 return self.__value def __iter__(self): self.__index = 0 return self def __len__(self): return 20 def test_generator_one_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == value).all() count += 1 assert count == 20 # test user define one column numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_one_column(numpy_1) test_generator_one_column(numpy_2) test_generator_one_column(numpy_3) test_generator_one_column(numpy_4) test_generator_one_column(numpy_5) test_generator_one_column(numpy_6) test_generator_one_column(numpy_7) test_generator_one_column(numpy_8) test_generator_one_column(numpy_9) test_generator_one_column(numpy_10) tuple_1 = (numpy_7,) dataset_generator = get_dataset_generator(tuple_1) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == tuple_1[0]).all() count += 1 assert count == 20 tuple_2 = (numpy_6, numpy_7) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value) tuple_3 = (numpy_1, numpy_2) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value) tuple_4 = (numpy_4, numpy_5, numpy_6, numpy_7) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_4) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:4" in str(info.value) # test user define two column def test_generator_two_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 with pytest.raises(RuntimeError) as info: for data in dataset.create_dict_iterator(output_numpy=True): print(data) count += 1 assert count == 20 assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:2 and number of returned NumPy array is:1" in str(info.value) numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_two_column(numpy_1) test_generator_two_column(numpy_2) test_generator_two_column(numpy_3) test_generator_two_column(numpy_4) test_generator_two_column(numpy_5) test_generator_two_column(numpy_6) test_generator_two_column(numpy_7) test_generator_two_column(numpy_8) test_generator_two_column(numpy_9) test_generator_two_column(numpy_10) tuple_1 = (numpy_7,) test_generator_two_column(tuple_1) tuple_2 = (numpy_2, numpy_3) dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == numpy_2).all() assert (data["label"] == numpy_3).all() count += 1 assert count == 20 tuple_3 = (numpy_4, numpy_5, numpy_6) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:2 and number of returned NumPy array is:3" in str(info.value) # test user define three column def test_generator_three_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 with pytest.raises(RuntimeError) as info: for data in dataset.create_dict_iterator(output_numpy=True): print(data) count += 1 assert count == 20 assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:3 and number of returned NumPy array is:1" in str(info.value) numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_three_column(numpy_1) test_generator_three_column(numpy_2) test_generator_three_column(numpy_3) test_generator_three_column(numpy_4) test_generator_three_column(numpy_5) test_generator_three_column(numpy_6) test_generator_three_column(numpy_7) test_generator_three_column(numpy_8) test_generator_three_column(numpy_9) test_generator_three_column(numpy_10) tuple_1 = (numpy_7,) test_generator_three_column(tuple_1) tuple_2 = (numpy_2, numpy_3) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:3 and number of returned NumPy array is:2" in str(info.value) tuple_3 = (numpy_4, numpy_5, numpy_6) dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == numpy_4).all() assert (data["label"] == numpy_5).all() assert (data["label2"] == numpy_6).all() count += 1 assert count == 20 def test_generator_with_single_numpy_with_yield(): """ Feature: Test GeneratorDataset with single numpy and multi columns when use yield Description: single numpy, tuple numpy with single columns and multi columns Expectation: success """ def get_dataset_generator(value): for _ in range(20): yield value def test_generator_one_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == value).all() count += 1 assert count == 20 # test user define one column numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_one_column(numpy_1) test_generator_one_column(numpy_2) test_generator_one_column(numpy_3) test_generator_one_column(numpy_4) test_generator_one_column(numpy_5) test_generator_one_column(numpy_6) test_generator_one_column(numpy_7) test_generator_one_column(numpy_8) test_generator_one_column(numpy_9) test_generator_one_column(numpy_10) tuple_1 = (numpy_7,) dataset_generator = get_dataset_generator(tuple_1) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == tuple_1[0]).all() count += 1 assert count == 20 tuple_2 = (numpy_6, numpy_7) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value) tuple_3 = (numpy_1, numpy_2) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value) tuple_4 = (numpy_4, numpy_5, numpy_6, numpy_7) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_4) dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:1 and number of returned NumPy array is:4" in str(info.value) # test user define two column def test_generator_two_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 with pytest.raises(RuntimeError) as info: for data in dataset.create_dict_iterator(output_numpy=True): print(data) count += 1 assert count == 20 assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:2 and number of returned NumPy array is:1" in str(info.value) numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_two_column(numpy_1) test_generator_two_column(numpy_2) test_generator_two_column(numpy_3) test_generator_two_column(numpy_4) test_generator_two_column(numpy_5) test_generator_two_column(numpy_6) test_generator_two_column(numpy_7) test_generator_two_column(numpy_8) test_generator_two_column(numpy_9) test_generator_two_column(numpy_10) tuple_1 = (numpy_7,) test_generator_two_column(tuple_1) tuple_2 = (numpy_2, numpy_3) dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == numpy_2).all() assert (data["label"] == numpy_3).all() count += 1 assert count == 20 tuple_3 = (numpy_4, numpy_5, numpy_6) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:2 and number of returned NumPy array is:3" in str(info.value) # test user define three column def test_generator_three_column(value): number = np.random.randint(1, 4) process_flag = False if number > 1 and number % 2 == 0: process_flag = True dataset_generator = get_dataset_generator(value) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False, num_parallel_workers=number, python_multiprocessing=process_flag) count = 0 with pytest.raises(RuntimeError) as info: for data in dataset.create_dict_iterator(output_numpy=True): print(data) count += 1 assert count == 20 assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:3 and number of returned NumPy array is:1" in str(info.value) numpy_1 = np.array(1) numpy_2 = np.array([1]) numpy_3 = np.array([1, 2]) numpy_4 = np.array([1, 2, 3]) numpy_5 = np.array([[1], [2]]) numpy_6 = np.array([[1, 2], [2, 3]]) numpy_7 = np.array([[1, 2, 3], [2, 3, 4]]) numpy_8 = np.array([[1], [2], [3]]) numpy_9 = np.array([[1, 2], [2, 3], [3, 4]]) numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]]) test_generator_three_column(numpy_1) test_generator_three_column(numpy_2) test_generator_three_column(numpy_3) test_generator_three_column(numpy_4) test_generator_three_column(numpy_5) test_generator_three_column(numpy_6) test_generator_three_column(numpy_7) test_generator_three_column(numpy_8) test_generator_three_column(numpy_9) test_generator_three_column(numpy_10) tuple_1 = (numpy_7,) test_generator_three_column(tuple_1) tuple_2 = (numpy_2, numpy_3) with pytest.raises(RuntimeError) as info: dataset_generator = get_dataset_generator(tuple_2) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False) for data in dataset.create_dict_iterator(output_numpy=True): print(data["data"]) assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \ "column_names," in str(info.value) assert "the size of column_names is:3 and number of returned NumPy array is:2" in str(info.value) tuple_3 = (numpy_4, numpy_5, numpy_6) dataset_generator = get_dataset_generator(tuple_3) dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False) count = 0 for data in dataset.create_dict_iterator(output_numpy=True): assert (data["data"] == numpy_4).all() assert (data["label"] == numpy_5).all() assert (data["label2"] == numpy_6).all() count += 1 assert count == 20 if __name__ == "__main__": test_generator_0() test_generator_1() test_generator_2() test_generator_3() test_generator_4() test_generator_5() test_generator_6() test_generator_7() test_generator_8() test_generator_9() test_generator_10() test_generator_11() test_generator_12() test_generator_13() test_generator_14() test_generator_15() test_generator_16() test_generator_17() test_generator_18() test_generator_19() test_generator_error_1() test_generator_error_2() test_generator_error_3() test_generator_error_4() test_generator_sequential_sampler() test_generator_distributed_sampler() test_generator_random_sampler() test_generator_num_samples() test_generator_num_samples_underflow() test_generator_schema() test_generator_dataset_size_0() test_generator_dataset_size_1() test_generator_dataset_size_2() test_generator_dataset_size_3() test_generator_dataset_size_4() test_generator_dataset_size_5() test_explicit_deepcopy() test_func_generator_dataset_005() test_func_generator_dataset_with_zip_source() test_generator_mixed_operator() test_generator_single_input_0() test_generator_single_input_1() test_generator_single_input_2() test_generator_single_input_3() test_generator_single_input_4() test_generator_single_input_5() test_generator_single_input_6() test_generator_with_single_numpy() test_generator_with_single_numpy_with_next() test_generator_with_single_numpy_with_yield()
36.075955
119
0.640481
10,173
74,569
4.443035
0.040401
0.057811
0.01593
0.014337
0.865218
0.832784
0.803027
0.779774
0.761145
0.744552
0
0.037836
0.244337
74,569
2,066
120
36.093417
0.76429
0.087677
0
0.749489
0
0
0.096634
0
0
0
0
0
0.12934
1
0.113683
false
0.007488
0.006807
0.024506
0.174949
0.013615
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
03a39f3be1ca2eb12871addbc33f81b21b4283a5
184
py
Python
utils/__init__.py
ahmednasserswe/COSMOS
9d2483816bcd77c58888ec829e273cbb5dd80a16
[ "MIT" ]
21
2021-04-27T09:56:50.000Z
2022-02-22T08:52:32.000Z
utils/__init__.py
PhucThanh/COSMOS
587ec9d1b6dd563eda8e407c09f84b83c0c04d64
[ "MIT" ]
6
2021-05-07T02:36:30.000Z
2022-03-24T11:20:36.000Z
utils/__init__.py
PhucThanh/COSMOS
587ec9d1b6dd563eda8e407c09f84b83c0c04d64
[ "MIT" ]
8
2021-05-20T16:21:08.000Z
2022-02-10T14:12:06.000Z
from .common_utils import * from .config import * from .dataset import * from .dataset_utils import * from .eval_utils import * from .img_model_utils import * from .text_utils import *
26.285714
30
0.777174
27
184
5.074074
0.37037
0.437956
0.437956
0
0
0
0
0
0
0
0
0
0.146739
184
7
31
26.285714
0.872611
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
03b294b6c10a8e0bdbeb553905c1aec6cb3b7582
97
py
Python
hydromet/models/__init__.py
amacd31/hydromet-toolkit
d39edc6d3e02adeb3cd89ca13fdb9660be3247b4
[ "BSD-3-Clause" ]
1
2017-01-06T03:35:29.000Z
2017-01-06T03:35:29.000Z
hydromet/models/__init__.py
amacd31/hydromet-toolkit
d39edc6d3e02adeb3cd89ca13fdb9660be3247b4
[ "BSD-3-Clause" ]
null
null
null
hydromet/models/__init__.py
amacd31/hydromet-toolkit
d39edc6d3e02adeb3cd89ca13fdb9660be3247b4
[ "BSD-3-Clause" ]
null
null
null
from hydromet.models.gr4j_model import GR4J from hydromet.models.hist_gr4j_model import HistGR4J
32.333333
52
0.876289
15
97
5.466667
0.533333
0.292683
0.439024
0
0
0
0
0
0
0
0
0.044944
0.082474
97
2
53
48.5
0.876404
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
03e50747714cc86ac9df87d553745c38a5e6fc5b
5,071
py
Python
data_loader/data_generator.py
JobQiu/PrototypicalNetwork
b46c34f8847946c4cd41774f4c8ee87c3486474c
[ "Apache-2.0" ]
null
null
null
data_loader/data_generator.py
JobQiu/PrototypicalNetwork
b46c34f8847946c4cd41774f4c8ee87c3486474c
[ "Apache-2.0" ]
null
null
null
data_loader/data_generator.py
JobQiu/PrototypicalNetwork
b46c34f8847946c4cd41774f4c8ee87c3486474c
[ "Apache-2.0" ]
null
null
null
import numpy as np from configs.config import MiniImageNetConfig class DataGenerator: def __init__(self, config=MiniImageNetConfig()): self.config = config # load data here self.input = np.ones((500, 784)) self.y = np.ones((500, 10)) def next_batch(self, batch_size): idx = np.random.choice(500, batch_size) yield self.input[idx], self.y[idx] class CompressedImageNetDataGenerator: def __init__(self, config): self.config = config self.train_images = np.concatenate([np.load('demo/mini-imagenet-train_{}.npy'.format(i)) for i in range(8)]) self.test_images = np.concatenate([np.load('demo/mini-imagenet-test_{}.npy'.format(i)) for i in range(2)]) self.val_images = np.concatenate([np.load('demo/mini-imagenet-val_{}.npy'.format(i)) for i in range(2)]) def next_batch(self): config = self.config total_num_class = len(self.train_images) total_num_sample_per_class = self.train_images.shape[1] episode_classes = np.random.permutation(total_num_class)[:config.num_class_per_episode] support = np.zeros(shape=[config.num_class_per_episode, config.num_sample_per_class, config.image_height, config.image_width, config.image_channel_size], dtype=np.float32) # if config. image augmentation, use np. flip to get the flip image to feed todo # np.flip(A, axis=3) query = np.zeros(shape=[config.num_class_per_episode, config.num_query_per_class, config.image_height, config.image_width, config.image_channel_size], dtype=np.float32) for idx, epi_class in enumerate(episode_classes): selected = np.random.permutation(total_num_sample_per_class)[ :config.num_sample_per_class + config.num_query_per_class] support[idx] = self.train_images[epi_class, selected[:config.num_sample_per_class]] query[idx] = self.train_images[epi_class, selected[config.num_sample_per_class:]] labels = np.tile(np.arange(config.num_class_per_episode)[:, np.newaxis], (1, config.num_query_per_class)).astype(np.uint8) yield support, query, labels def next_val_batch(self): config = self.config total_num_class = len(self.val_images) total_num_sample_per_class = self.val_images.shape[1] episode_classes = np.random.permutation(total_num_class)[:config.num_class_per_episode] support = np.zeros(shape=[config.num_class_per_episode, config.num_sample_per_class, config.image_height, config.image_width, config.image_channel_size], dtype=np.float32) # todo if config. image augmentation, use np. flip to get the flip image to feed # np.flip(A, axis=3) query = np.zeros(shape=[config.num_class_per_episode, config.num_query_per_class, config.image_height, config.image_width, config.image_channel_size], dtype=np.float32) for idx, epi_class in enumerate(episode_classes): selected = np.random.permutation(total_num_sample_per_class)[ :config.num_sample_per_class + config.num_query_per_class] support[idx] = self.val_images[epi_class, selected[:config.num_sample_per_class]] query[idx] = self.val_images[epi_class, selected[config.num_sample_per_class:]] labels = np.tile(np.arange(config.num_class_per_episode)[:, np.newaxis], (1, config.num_query_per_class)).astype(np.uint8) yield support, query, labels def next_test_batch(self): config = self.config total_num_class = len(self.test_images) total_num_sample_per_class = self.test_images.shape[1] episode_classes = np.random.permutation(total_num_class)[:config.num_class_per_episode] support = np.zeros(shape=[config.num_class_per_episode, config.num_sample_per_class, config.image_height, config.image_width, config.image_channel_size], dtype=np.float32) # if config. image augmentation, use np. flip to get the flip image to feed todo # np.flip(A, axis=3) query = np.zeros(shape=[config.num_class_per_episode, config.num_query_per_class, config.image_height, config.image_width, config.image_channel_size], dtype=np.float32) for idx, epi_class in enumerate(episode_classes): selected = np.random.permutation(total_num_sample_per_class)[ :config.num_sample_per_class + config.num_query_per_class] support[idx] = self.test_images[epi_class, selected[:config.num_sample_per_class]] query[idx] = self.test_images[epi_class, selected[config.num_sample_per_class:]] labels = np.tile(np.arange(config.num_class_per_episode)[:, np.newaxis], (1, config.num_query_per_class)).astype(np.uint8) yield support, query, labels
51.222222
116
0.672648
689
5,071
4.648766
0.124819
0.092726
0.067437
0.095535
0.874805
0.874805
0.874805
0.838277
0.786138
0.786138
0
0.010438
0.225399
5,071
98
117
51.744898
0.80499
0.060738
0
0.567164
0
0
0.018927
0.018927
0
0
0
0.010204
0
1
0.089552
false
0
0.029851
0
0.149254
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
1
0
0
0
0
0
0
0
0
0
0
7
03fe9b141ae07623796cb5d8225249927e3ef98d
2,429
py
Python
angr_platforms/tricore/sbrn_instr.py
shahinsba/angr-platforms
86f9ea90c396fb5561d0196a2d1a873e573b0294
[ "BSD-2-Clause" ]
null
null
null
angr_platforms/tricore/sbrn_instr.py
shahinsba/angr-platforms
86f9ea90c396fb5561d0196a2d1a873e573b0294
[ "BSD-2-Clause" ]
null
null
null
angr_platforms/tricore/sbrn_instr.py
shahinsba/angr-platforms
86f9ea90c396fb5561d0196a2d1a873e573b0294
[ "BSD-2-Clause" ]
null
null
null
#!/usr/bin/env python3 """ sbrn_instr.py Implementation of SBRN format instructions. """ from pyvex.lifting.util import Type, Instruction from .logger import log_this class SBRN_JZ_T_Inst(Instruction): """ Jump if Zero Bit instruction. op = 0x2E User Status Flags: no change. """ name = 'SBRN_JZ.T' op = "{0}{1}".format(bin(2)[2:].zfill(4), bin(0xe)[2:].zfill(4)) bin_format = op + 'b'*4 + 'a'*4 def parse(self, bitstrm): data = Instruction.parse(self, bitstrm) data = {"disp4": int(data['a'], 2), "n": int(data['b'], 2)} log_this(self.name, data, hex(self.addr)) return data def get_n(self): return self.data['n'] def get_disp4(self): return self.constant(self.data['disp4'], Type.int_4).cast_to(Type.int_32) def get_pc(self): return self.get("pc", Type.int_32) def get_d_15(self): return self.get("d15", Type.int_32) def fetch_operands(self): return self.get_d_15(), self.get_pc(), self.get_disp4(), self.get_n() def compute_result(self, *args): d_15 = args[0] pc = args[1] disp4 = args[2] n = args[3] cond = d_15[n] == 0 dest = pc + (disp4 << 1) self.jump(cond, dest) class SBRN_JNZ_T_Inst(Instruction): """ Jump if Not Equal to Zero Bit instruction. op = 0xAE User Status Flags: no change. """ name = 'SBRN_JNZ.T' op = "{0}{1}".format(bin(0xa)[2:].zfill(4), bin(0xe)[2:].zfill(4)) bin_format = op + 'b'*4 + 'a'*4 def parse(self, bitstrm): data = Instruction.parse(self, bitstrm) data = {"disp4": int(data['a'], 2), "n": int(data['b'], 2)} log_this(self.name, data, hex(self.addr)) return data def get_n(self): return self.data['n'] def get_disp4(self): return self.constant(self.data['disp4'], Type.int_4).cast_to(Type.int_32) def get_pc(self): return self.get("pc", Type.int_32) def get_d_15(self): return self.get("d15", Type.int_32) def fetch_operands(self): return self.get_d_15(), self.get_pc(), self.get_disp4(), self.get_n() def compute_result(self, *args): d_15 = args[0] pc = args[1] disp4 = args[2] n = args[3] cond = d_15[n] == 1 dest = pc + (disp4 << 1) self.jump(cond, dest)
26.402174
81
0.561136
369
2,429
3.552846
0.211382
0.064073
0.106789
0.05492
0.831426
0.797864
0.776506
0.729214
0.686499
0.686499
0
0.048919
0.276245
2,429
91
82
26.692308
0.696815
0.095513
0
0.827586
0
0
0.034192
0
0
0
0.004215
0
0
1
0.241379
false
0
0.034483
0.172414
0.62069
0
0
0
0
null
0
0
0
1
1
1
1
0
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
0
0
0
8
20928e68f79e1a60c37302840b6bc6103809842b
3,653
py
Python
curation_projects/kannada_audio/__main__.py
sanskrit-coders/audio_curation
363cfdab94cac0bc72096efa4649d0e075f55f51
[ "MIT" ]
null
null
null
curation_projects/kannada_audio/__main__.py
sanskrit-coders/audio_curation
363cfdab94cac0bc72096efa4649d0e075f55f51
[ "MIT" ]
1
2018-10-06T20:36:13.000Z
2018-10-06T20:36:13.000Z
curation_projects/kannada_audio/__main__.py
sanskrit-coders/audio_curation
363cfdab94cac0bc72096efa4649d0e075f55f51
[ "MIT" ]
null
null
null
from audio_curation.episode_data import google_sheets_data from curation_projects import kannada_audio kannada_audio.upload_volume(title ="havyaka hADugaLu ಹವ್ಯಕ ಹಾಡುಗಳು", archive_id="havyaka_hADugaLu", author="ಹವ್ಯಕರು", reader="ಸುಭದ್ರಾ", repo_paths=["/home/vvasuki/kannada-audio/" + "havyaka-hadu-by-subhadra"], dry_run=False) # rangapriya svAmI\ # episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="habba", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="current filename", title_column="new title", script="en") # kannada_audio.upload_volume(title ="ಭಾರತೀಯ-ಹಬ್ಬ-ಆಚರಣೆಗಳು bhAratIya habba AcharaNegaLu", archive_id="bhAratIya-habba-AcharaNegaLu-rangapriya-swamy", reader="ವಾಸುಕಿ-ನಾಗರತ್ನಾ vAsuki-nAgaratnA", author="ರಂಗಪ್ರಿಯ-ಸ್ವಾಮಿ rangapriya-svAmI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/" + "bhAratIya-habba-AcharaNegaLu-rangapriya-swamy"], dry_run=False) # gorur # episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="rasikaru", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="current filename", title_column="new title", script="en") # kannada_audio.upload_volume(title ="ನಮ್ಮೂರ ರಸಿಕರು nammUra rasikaru", archive_id="nammuura-rasikaru", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ಗೊರೂರು ರಾಮಸ್ವಾಮಿ ಅಯ್ಯಂಗಾರ್ Gorur Ramaswami Iyengar", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/" + "nammuura-rasikaru"], dry_run=False) # devuDu # episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="m-darshana", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="original_filename", title_column="new title", script="en") # kannada_audio.upload_volume(title ="ಮಹಾ-ದರ್ಶನ mahA-darshana", archive_id="mahA-darshana-devuDu-narasimha-shAstrI", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ದೇವುಡು ನರಸಿಂಹ-ಶಾಸ್ತ್ರೀ devuDu-narasimha-shAstrI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/devuDu/" + "mahA-darshana-devuDu-narasimha-shAstrI"], episode_data=episode_data, dry_run=False) # episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="m-kShatriya", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="original_filename", title_column="new title", script="en") # kannada_audio.upload_volume(title ="ಮಹಾ-ಕ್ಷತ್ರಿಯ mahA-kShatriya", archive_id="mahA-kShatriya-devuDu-narasimha-shAstrI", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ದೇವುಡು ನರಸಿಂಹ-ಶಾಸ್ತ್ರೀ devuDu-narasimha-shAstrI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/devuDu/" + "mahA-kShatriya-devuDu-narasimha-shAstrI"], dry_run=False) # episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="m-darshana", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="original_filename", title_column="new title", script="en") # kannada_audio.upload_volume(title ="ಮಹಾ-ಬ್ರಾಹ್ಮಣ mahA-brAhmaNa", archive_id="MahaBrahmana-by-DevuduAudio", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ದೇವುಡು ನರಸಿಂಹ-ಶಾಸ್ತ್ರೀ devuDu-narasimha-shAstrI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/devuDu/" + "mahA-brAhmaNa-by-devuDu"], dry_run=False)
130.464286
374
0.794689
605
3,653
4.770248
0.2
0.068607
0.053361
0.049896
0.783784
0.719681
0.706514
0.691268
0.691268
0.691268
0
0.015859
0.050643
3,653
27
375
135.296296
0.790369
0.899808
0
0
0
0
0.32
0.148571
0.333333
0
0
0
0
1
0
true
0
0.666667
0
0.666667
0
0
0
0
null
0
0
0
0
1
1
0
0
1
0
0
0
0
0
0
1
0
1
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
0
0
0
7
20c6657ad676fdd9e37b8734c885cd3867d549b5
2,364
py
Python
cities/migrations/0018_city_name_ar_city_name_std_ar_continent_name_ar_and_more.py
webmalc/django-cities
a05c38392135a5678c89d17533b4b0af56926ae8
[ "MIT" ]
null
null
null
cities/migrations/0018_city_name_ar_city_name_std_ar_continent_name_ar_and_more.py
webmalc/django-cities
a05c38392135a5678c89d17533b4b0af56926ae8
[ "MIT" ]
null
null
null
cities/migrations/0018_city_name_ar_city_name_std_ar_continent_name_ar_and_more.py
webmalc/django-cities
a05c38392135a5678c89d17533b4b0af56926ae8
[ "MIT" ]
null
null
null
# Generated by Django 4.0.2 on 2022-03-21 06:11 from django.db import migrations, models class Migration(migrations.Migration): dependencies = [ ('cities', '0017_remove_city_name_ar_remove_city_name_std_ar_and_more'), ] operations = [ migrations.AddField( model_name='city', name='name_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'), ), migrations.AddField( model_name='city', name='name_std_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'), ), migrations.AddField( model_name='continent', name='name_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'), ), migrations.AddField( model_name='country', name='name_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'), ), migrations.AddField( model_name='district', name='name_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'), ), migrations.AddField( model_name='district', name='name_std_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'), ), migrations.AddField( model_name='region', name='name_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'), ), migrations.AddField( model_name='region', name='name_std_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'), ), migrations.AddField( model_name='subregion', name='name_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'), ), migrations.AddField( model_name='subregion', name='name_std_ar', field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'), ), ]
36.9375
107
0.598139
271
2,364
4.97786
0.177122
0.133432
0.170497
0.200148
0.858414
0.858414
0.858414
0.832469
0.81023
0.81023
0
0.028824
0.28088
2,364
63
108
37.52381
0.764706
0.019036
0
0.842105
1
0
0.142857
0.024601
0
0
0
0
0
1
0
false
0
0.017544
0
0.070175
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
9
454b9fe6d15d33b5e17ed7b9856ab55f75064737
369
py
Python
scripts/PubSearch.py
minervaclient/minervaclient
d5a249f2aac9191f3e7aa2d0a5917c34011ec41c
[ "BSD-2-Clause" ]
4
2018-07-09T15:39:08.000Z
2021-05-11T16:18:29.000Z
scripts/PubSearch.py
minervaclient/minervaclient
d5a249f2aac9191f3e7aa2d0a5917c34011ec41c
[ "BSD-2-Clause" ]
2
2019-02-13T06:18:34.000Z
2019-04-24T16:35:52.000Z
scripts/PubSearch.py
minervaclient/minervaclient
d5a249f2aac9191f3e7aa2d0a5917c34011ec41c
[ "BSD-2-Clause" ]
2
2019-01-28T00:48:04.000Z
2019-01-28T01:03:55.000Z
from __future__ import print_function from __future__ import absolute_import from __future__ import unicode_literals from future import standard_library # TODO: why future import standard_library shows error on pylinter (py3) standard_library.install_aliases() from builtins import str from builtins import input from builtins import range from builtins import object
33.545455
108
0.859079
51
369
5.843137
0.470588
0.201342
0.214765
0.181208
0
0
0
0
0
0
0
0.003086
0.121951
369
10
109
36.9
0.916667
0.189702
0
0
0
0
0
0
0
0
0
0.1
0
1
0
true
0
0.888889
0
0.888889
0.111111
0
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
1
0
0
0
1
0
1
0
1
0
0
7
45a1928d4addee161c2e0a67fbc84feb5d1543d3
114,760
py
Python
src/4-draw_results.py
eric2323223/CASIA-HWDB1.1-cnn
6cca94428c9c2409438d1ee06ba090c2da9e00f0
[ "MIT" ]
null
null
null
src/4-draw_results.py
eric2323223/CASIA-HWDB1.1-cnn
6cca94428c9c2409438d1ee06ba090c2da9e00f0
[ "MIT" ]
null
null
null
src/4-draw_results.py
eric2323223/CASIA-HWDB1.1-cnn
6cca94428c9c2409438d1ee06ba090c2da9e00f0
[ "MIT" ]
null
null
null
#!/usr/bin/env python2 import base64 import cStringIO import json import random import sys import h5py from keras.models import model_from_json import numpy as np import PIL.Image import utils def create_cell(i, bitmap, tagcode, correct): cell = ' <div class="cell" style="animation-name: appear; animation-delay: %.1fs; animation-duration: 0.7s; \ animation-fill-mode: both; animation-iteration-count: 1;">\n' % (4.0+0.2*(i//4)) # save bitmap as data uri im = PIL.Image.fromarray(np.squeeze(x, axis=0)) buffer = cStringIO.StringIO() im.save(buffer, format='png') cell += ' <img alt="" src="data:image/png;base64,%s" />\n' % base64.b64encode(buffer.getvalue()) cell += ' <span style="animation-name: %s; animation-delay: %.1fs; animation-duration: 2s; \ animation-fill-mode: both; animation-iteration-count: 1;">%s</span>\n' % ('togreen' if correct else 'tored', random.uniform(6.0, 18.0), utils.tagcode_to_unicode(tagcode).encode('utf-8')) cell += ' </div>\n' return cell if len(sys.argv) != 4: print 'Usage: %s subset_filepath model_filepath weights_filepath' % sys.argv[0] sys.exit(1) subset_filepath = sys.argv[1] model_filepath = sys.argv[2] weights_filepath = sys.argv[3] # load the model with open(model_filepath) as f: d = json.load(f) model = model_from_json(json.dumps(d)) model.load_weights(weights_filepath) model.compile(loss='categorical_crossentropy', optimizer='adadelta', metrics=['accuracy']) # test the model and output results with h5py.File(subset_filepath, 'r') as f1, open('results.html', 'w') as f2: print 'Evaluating the network on the test set...' score = model.evaluate(f1['tst/x'], f1['tst/y'], verbose=0) print 'Test score:', score[0] print 'Test accuracy:', score[1] print 'Extracting some results...' f2.write('''\ <!DOCTYPE html> <html lang="en"> <head> <meta charset="utf-8"> <title>results</title> <style> body { background: #D4C8B8; background-image: url(data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAeoAAAKNCAYAAADvdChFAADp90lEQVR42uydBZgcRfrGK3A4/AMcnmyIIAkOQQ8OgkuwBGaneyEhye705IBAZA0/3N39kMPd5XB3CRok2OHufv96p6uzvb0t1SM7PT3v73nqyWamp7unuqff+qo+EYIQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEpIcRsi3KbiCEEEKSyQWybcBuIIQQQpLHWNn+J9vx7ApCCCEkWayiRBrtDnYHIYQQkiwucwn1V7LNwS4hhBBSTyyScPF7zyXUaH9P8LmuL9t8vKUIIYSUk51Fsr2pX/AI9R4JPMdlZLtOtqxsf+EtRQghpJw8LNvEBJ/f5R6hPiSBVjTO6zzeSoQQQirBg7J9J9s8CT2/3T1CfWWCzm2COqcneRsRQgipFHsrsXkwoee3qUeoP0zIeR2jzud73kKEEEIqycouEdwngee3pGy/ecR6aJXP6VzXuWzIW4gQQkil+cYlPJMTeH7TPUK9W5XOo49sd7nO4xjeOoQQQnqDMzxCOClh53e+5/zOqsI5DJPtVdc5/Ie3DSGEkN5iMY8QonUk6Pwsz7k928vH39Az64C2OG8bQgghvclRPmJ9UkLObQXPef0q20K9dOxWn37hujQhhJBeZ3YfQUK7LSHn95HnvDbuhWNe5tMf+/JWIYQQUi2ODBDr52Rbp8rndqXnnFoqeKzVZHuMIk0IISSJvB0g1n8IO0VmtZjiOZ+pFTrORqJnOBjaobw1CCGEJIG1A4TaaffLNrwK5zXKcx6dFTjGmQHfeTRvC0IIIUni2gixRjtC9K7n88ae4x9Qxn3/n+g5te60cbwdCCGEJJHpGmL9k2wnyzZ/L5zPcM+xjyzTftcSPR3V0H4Utrc5IYQQkkiGyPaLhlij/Ve2bSt8Pst6jnlGGfbZHPB9Zgg7tSohhBCSaFaS7VtNsUb7VwXPZRFlwTvHur7E/V0Y8B1miuRWEiOEEEJ6gOnft2KI9VEx9o3c2VjnXlNj278Iu3KWc5xHivw+A0T3fN3u9pRsC/OSE0IIqTUgkrfEEOs4Vbiwvn2IsPN5R/GC6xivFPE91vVY5e72nho4EEIIITXLyZpCjbXt+WLu+xoRPXV+ZwnCuovwj49Ge0e2fry8hBBC0sCOmmJ9XRH7xuceCHnfva78hejyNo+aru6MONcBvKyEEELSBGKaf9IQ6y1j7neICI+RPtS175+FXfXLGTwMCvjMERHnaPByEkIISSObagj1Cz6f21XYoVZBtKjPburz3kTP/geq162AQcG4iPM7k5eREEJILTC3bNvJdopstwt7+hn/XiDb/sJO39nf53N5DbFey/MZFLa4POJ8kGzkN5/Xt/fsexn1+oHKqnYzMuK83hS9k6iFEEIIKRk4ZWGdFklL9hO2Y9fLPuL2pWzHyjbM9dmnIgTxWZ/jPS/bKhpWtTfUa03hv7Z8iY9QRw0gluRlJ4QQkgYghk2ynSS6x1Nfp4R9Rdm+ihDFEZ59QtzPiTjue+qzq3rO5U/RleJzLvX6q7INdW13UMT5NPKyEkIISSsbyva06F6c4xaXgPq1azz7uCfA0nYzRn32HtdrcyurHq9/rl7Lqv879I0Q6f15CQkhhNQDEMgfRJcHdphQv+n5LNa/Z0Tsfx7X5xtcr7+mXntb/f8d2V53vX9YyHnsy8tGCCGkNyhnBq3Zhe2FjTrU2wh7OnsDERzu5GaAEmmduGr3/u5WghuFs/7tzlr2kOiKt95S/b2f6/2nfY6NfOWsKU0IIaTXmFe2scJOAHKcbJOEve66pRLclZT4Li3bYGHn60b6TEN0eV1jShmlLL+MENh3hb3mu0DAuaylKdS7uD7zjGwPa3xPt1e5U/v6BtE19f2r+ntp9d7inmMizShCuug4RgghpNeB89TRQj//dlT7RtjTyc8Je2r6BmX5QlRRxhLOXwNlm9PnXP6hsf9pru0xOLhS4zsu4vr8weq1f3n2+4Rr+zeV9YxtNuItQgghJCkgOcj9GmL5h7KiL1GW9U7C9tpGhq+o0o6Y5u6vrHk/3o449hZqu/lcwotZgLkjjvuw2v5x9f9TPftdV71+s7BLX87H24EQQkhSQSgTsnQdI9sZsp0u7LSbzcJO+7lEBY+9WYRQO45cTiz0DrLdpAYLYRwlugp9gCmufb4v26JqZoGOYoQQQkgEl3nE2fEE31PY4VZTRVeBDIR5oRrWmxH7nODaX0YJvPN/1Kd+VNge6IQQQgiJYIBHqOER7s7B7Y63HiHs6e+oLGGjRPfc4cd7jjGe3U4IIYTo84ZHSN1pQLdyvb6xspD/p8Q4iBGe/X0nusdsr80uJ4QQQvTZTvRcn15Tvbei6zU4wO2u/g6buh4qwte+d2KXE0IIIfG4xSOm16rXDddrCJ86y/V3GG+GCLUz9T0Xu50QQgjRo5/oXqjDiZke53rtatlmyva7bAuG7AsC/HGIUO/tsrxzorxZ2wghhJDUgixhqG+NULFF1GuoH/2TR2jPjdhPVNhXu9oOqVCRP3w7dj0hhBBSPPDwfl50xUH3j9geQn+BCC6l2ebaFqFaR7CLCSGEpJnZRHSWslI5WYmsGbHdUrK9rP6+NUCop7i2f0o1QgghJLUgBSeKeiB8Cs5fHbKdJuy0o1hXvlS282Q7SdihV6jvjDze8NxeS1nMUevEByiRPTtiO1jHH6q/twoQ6kmu7fdQrw3nZSSEEJJ2/k+2IcJeI4bDFjy0UVryc6FX5APrxSjucZFsBwo7w9h6at9j1TaofjVHyDl86rGQb/Q5zp6ezxwi2/a8fIQQQuqdxZQFvbOwy1HCskbBDBTP+DFEwN+T7XXX/7cK2P8c6v1LPK+fLYKrchFCCCFEk+WFXYMawvpyiHCj6tZyPp9fSr1/nef10Z7PH86uJoQQQkpndWGvIT/hI9YI2Zos7FzhDhuo95717Gcvz2cvZtcSQggh5eWQAOsaYVtOSlCnata3orsX+lTPZ+5mdxJCCCHl518+Qo0QLGQrQ7KUYa7X13J9rtPzmQfZlYQQQkj5MV1i+6JsNwjb0/xo2b4Q9rq18/7Wrs8d4BHqO9iVhBBCSPn5q2y/KbEd7Xp9TvXaW8JODwoBX8r1vnfa/Fp2JSGEEFIZnCpb23peP1C9fpnPZ47yCPXl7EZCCCGkPKBwBtafN5FtH9m+UWILwUYo199d1vMVoitxyoqufZzkEepL2a2EEEJIeUBqUSQyWUjYNaiRJOUxj/BiOvwu2a4SdglM5/WJah/tnu0vY7cSQgghlQXJUc4T0WlJj5XtSM9r17H7CCGEkN5hN9leE3q5xJ12L7uNEEII6V0s2Z4TdsYyrGXvHSLUb6rPzCXbvAH7m11Z7UuzawkhhJDysbDrbziUjZTtDI9Qfy/b3LKtIOwY67vVNkhJepCwk6j8IWzHta3YpYQQQkhl2c/HqoY1DUe1vsKu5PWRj5ivxa4jhBBCKg9irr90ifBBPtu4K2wdqyzuWqEPLzEhhJBaB6lGN5dtbZ/3nOpan8q2fo19r/kp1IQQQmqZSaJnFjM4ig2XrVXYBT0g0o/KtkSNfbeVRffELoQQQkhNsIawY6x/UiL8hmznyjZdtu9E97Xoz0RXmcxaYrBsByuLmhBCCKkJFpTtYtneke0T2V6W7RphZy17WrYHZPu3srLhKPaXGv6u+8q2HS85IYSQWgKhWXAKW1TT6h5ao99zSdkO4+UmhBCSRo6T7UfRNfX9iKi9tembhL2+TgghhKSG2WS7UfhnKruhhr7HBuqc5+UlJYQQkiZWEOH5v/vVyPd4VrbTeTkJIYSkjdUihHpCDXyHzdS5zsfLSQghJG2gnvXPIUJ9ew18h9+URU1IpQaCa7IbCCHVJKwc5icJP3cnxemuvIykzCwr287CnlUaxO4ghFSTq0KEGtWyFk3wuX+qzpGQcoHMdrvLtqVsQ9gdhJAkcJwIX6feMKHn3aHO7zReQlIG1pNtf9mOEHYqXUIISQytEUI9OYHnvLjr/AbzEpISWE62h2SbIeylFEIISRybRAj1GQk85yPUub3Ey0eKBOlyr1H30Z3CTrVLCCGJBLm9vw0R6rsSdr6Lus7tXF4+EoN5ZJso21uue4i54QkhNcFtIUL9esLO9QbXue3GS0c0WF3Y688fuu4dlHBdiF1DCKkV9g4RasQp903IeS7lOa+5eelIAKivPlbYMfbee3oiu4cQUmsMFeHr1Osk5DyvdJ3TTbxsxAckKIEPw/s+9/FM2XZkFxFCapV3QoR6jwSc39qecxrHS0ZcGLLdF3IPPy7oMEYIqXHCHnJXJ+D8XnGdz++i9spwkvKztGxtsj0hwmeETmRXEULSwHkhD7p3q3xuK3vO5wlerroGg7Qz1IDtfxGN6WUJIalhbMjD7ldRXQ/Zez3ncwkvV12C2OdTZPtRQ6A/l20HdhkhJE0MiHjwVcsJZxufczmQl6uuWES2czTE2WkfCi6NEEJSyhshD78rq3RO033OZYM6uBYIRat35yd8/5Nk+yaGSN+j+o4QQmqC2US8WONLQx6A3ws7NrU3WdbnPH6ownlUgxGyzVfH9y4yhn0WQ6DRXuBPnhBSayA9KByxzlL/RrFnxINwy14+/0d8zuHOOrhuq4j6dYJCkYybYwo02vmyzcWfPCGkVq3qo9XDbB/Z5gjZdu2Ih+FxvXjeGwecQz2sT0N0OuvwXsXgRMdRzNuu58+cEJIGxquH2geyZQK2gUXyVcgD8bpePN/HRLKzpFWKFWX7SdTXOitKld5RhEA7g09CCEkN57oecAcHbPNcyEPxvl46z4VFctbJe5sLZXuvju7J7WX7pUiRPo0/aUJIGrnd9aB7UPR0WLor5MH4ci+d40UBx3++Dq4PRGuPOvieS6n7739FNos/ZUJIWlnc88B7UrZ5Xe+fH/Jw/MazbaUe4EHHPzXl12Yf9T3TPmuQle3rEkS6jT9jQkja2cjz4MNU6wLqvb0iHpLLV/jcDgk59ro10LeofTxPEZ+bU33Hh1N83/WT7ZYSBBptC/58CSH1guVjWcOSWzLiQbl5hc9resBxP64RS3G8Et24TFDfc6+U3m/IbPdVCQL9WS/ce4QQkji81rOzBvx8yAMzV8Hz2SDkuOckvC+xrnxZCZ//QH3PRVN2jyGW/5oSregZyhonhJC65GzPQ/Fy2W4LeWgeXsFzuTHkuJkE9yGSyfwk9JLK+DFGfcf7U3ZvbSbC09LqNNyL8/BnSgipd+J4315RoXMIcyL7U9hOcEkFZUCLjeftI+zqZNXI/FZJTipRoNGO5U+TEEJskA/8W82H55MVOoepIcf8SAlaEjlWCW2xmKJrDb5PCu6lYSI8xE+3HcCfJSGEdGdTzQcoQrTmqMDxrwo55vSE9pkzCzC5hH18rvZxXgruoV3KINAY9KzLnyMhhPhzgObDdMUKWPSfhxxvZkL76xVhO4EVywmu77hLDd83uH5nl0GkkfluVf4MCSEknPc1HqiNZT7mjhpWVt+E9dNdJQ5aFnB9Pzii/SXh90VQoptlZHupDCJ9BX96hBCix1YaD9UjynzMqzWOOSJBfbSHOqdnStjHWa7vdkaC74e/yvZ32Rb0eQ+e+MVUu/K2yfzZEUJIPK6MeLBeXsZjzSW6vJ7DWkdC+mak65yGFbmP4Z7vtkJC74MNZdtXtmV93ju+DAL9vjoGIYSQmCCz1nchD9j/lLj/uV1/m5oP9asS0C+ru87nnyXsZ4ZI/vr7mZ6ZEyd1LKbAbyiDSCOBzXz8qRFCSPG0ifBwqWJBmtIPRVeqzBM1H+wvVbk/UDP5G3UuP5awn+093+vKhF13WPcIwUM2sfWEnYkOMdFw8kL50RfLINK78edFCCHlYWbIw/bWIvf5F9GVu1nEsM4gjvNXqR8aRPc81cWWWEQe9Z8830snyQnC4YZW4HvNrQYgmH5GrvF/u84LHu0oiYolB4ShrSnb2yUK9Lmi8kVdCCGkrjg/4sFbbG7rd9Xn/ya6TwNHtWo85BdVMwBuASsWbyKQL2Nch51jHguZ3OCRvomwU5TuLex1ZdT6xtIFaot/IoJza7tLSS5dokB/RiuaEEIqw64aD+Fri9jvWS6h+j3GA3/TXv7+f3ENKpy2XJH72tjn+5yo8TkI69E+r/dX1vhUZaleL+w45BeU5fuzKC6OeZTnONsJO4VrMQKNWZB2YXuOE0IIqQBDNR/I58fc71Yi3gPfEYp8L3//h4R/dbG4IGb6GxE/ccz+sp3qsmqbhO2E9axsf4jS14qd9lyAxfu3EvZ5rTpnQgghFQQC84vmg/m6mPv+VHO/cGpywrdOLcN3wjr3khrb3exzLtsWecxHffb1TsRnnKIWWF54q4yi7G53hsxSrFXkPlEBbZUYfYNrsQatbkIIKZ44ZQoPibHfk0P284OwyxuuooTVef2eMnyftTQEd39RPq/zoPzXpwdsD9E6o0LC7DTMFERll3sz5j6x5j22iP6B3wGmyL9TA7GF+JMjhJB4RDmUFTsNvq3nc98qCw9TsIu4tkM41xdqmzfK8H02F3bSkiD2DPhemxdxrPVC+mkRz7bwB5heYYGGx/lmGud9TYx9Yjlg5xKvyX2u/W3NnxwhhMRjfBGCsLfGfhdW2z6sLOcwS+peUb7KXXuHiFXQmjwcs4opQfl6wP7cU/jIbnZ3hQX6f8piXVvjnNfX3B88w1uLvAZw0hsk7Gl3dyrVW0RwTnFCCCEBFBuao5MP/GkRvVYLDnftd+USvgsyriE0qb/PexgoBOWt3quIY10e0jcOJ1fYev6fazC0hOZ5nxKx33uE3lo9BlSIvZ6kBia3qOv9ihL5p5U1jnzph6jZB0IIIUUSJ9bZ3Voi9ovp3i80ju/Or72H5z2IbkOM2YFvA967K+A7vFdEf03UGMCcWyGBvkENAL5W/7+6DDMoWH+Gt/mIkNkRWOLIYoYqWO97ZiM+FnbYGDzBkTt8oxgDB0IIIRr4rVPrxtbmQvY7l7KqBkUcfznX/q73WMgHC32PYThIve7z+sUh579dzL5aLGRfzrFvLVKEfw3pdzinOdPzN4rSypHCoe06dbxxnvdQbhRLBwcKey0b1vp3rvOD5XyeGlCtzJ8OIYT0DuN8hAFxvPDM/lKUVqISHshRWav6iq4EHl8ogQZI5Xmz5neYV31+X8/ru4WcN6zv2QL2B2/0//O8NrsaeATtD6k4V9IU5VeUNXyqspIR6/yR6/1fRPeqY9gWHu0bCDuJDBKNoOhFq/r8rWrANUXYSU0gxvANWFNZw0jIsrWavYBV/Zna75HK+r9J2ClF4S/wmLDzgXvDxuAM9zf+XAghpPdZIUBMzhb+Gbf82iYB+4ZFFpWKdEGPKDmlEREydZzmd3CcpAa4Xls94pxHB+wL8eWT1L9u9hV61b8eUa99ql6/UAniDrINdG2H0KX9ZHvVtR/kHIcDVj8R7KH+P4+oF1uC8mYl8Gcowd9GDTbcnOPz2WdCrrczyEGOcfg/zM2fFyGElA7WIH8LeKA3KDGJevD/5hFJ94M+Kue116LPiK4p5tU0v8MxSuwdsLYdVsrz4ZB9HSl6hhEtLYLTdk53WfWOY9w7agDiBf2J3NwPevZxhxLLvj59AyE9VthT0bB471IWbzGpP58qQjxznsGEe3AyWg0qYGkjZeoTnlkYDFbuF/baPZzUGEdNCCFF8m7Ag/1R9f59GiLwuRJ9NyNEdA7tdzz7uUDYU8G/xDj/L0TXNPmcId/HacMC9gNR9CvMEZYYxuFNl+g6YH3dULMK33o+94kaBPXX+H7b+mx3YRFCjXV0TI8XUyt6VzVAKMWSx4wBvMAX4U+OEELiEZYEYxm1jU4ZxOme/c6uXt8/4Lij1PsQua89+7pJ89wXFd1za0fVVD40YD87qvdX8hGooBCpIcIOPXL6BqVD4RXepgY33rKXyMp2qjrWbJrf71LZ/it65taeRxSffhRr1IcVaeFirbxZtn3UdS2mPCas7qM1BymEEEKUsEQlOOkn9JzLbvPsG5ZjUMGL59RnTGGH+Lj306Z57pOFPS0Nzoo4t0cC9jFAve+X5OM9Ebwuv4KPAPltO1Pte+EY16Sv6KqT7Vereznhn2c8TsNa99gS751xJRwfswy78+dHCCHRbBLyMJ3s2g5W3ccaD+CTXZ85Ub02X4AljLVlhB7d6LH4FtA89weEvYZ6qIguyxhUsANT535T7ZMC9gMv7JNEdHYvrJ2PLOJ6OPnIb1WzEg6IUcY6+EOivPHZd6iZg2KAZf9wicfHNczwZ0gIIcEgFCnIoWxPz7aIi/6vxsPXifPdQP1/e89+ThVd095gisfS0wWC+L3G+awZ8Plr1fteQZ1d+Gczg9X8uoZIY206ruMWQqqcqXvL9TpKgD4hotOIlirYWOdftYj7ZzY1c1Lq8VGfm9PhhBASwHMBD89xPttiWvZZjQevs77trSiFzFWO1/LF6rWs57NB9akXEV1JVDDA+EHjPIKs2lNcAuVlvRIE50fRVUIUAvaasKepb1aW+EQ1gMH3QDrOzdWAAbMLNygrtZ96LUoAkVkMtawxrb6GsuJLLZ15ZcjAJgh4tD9dBrH+RQ3iWBqTEEI8/CvCMvYCa/GBiIfus2pbOBy516ndebCdYhIv+lh3fsDiczKK7RFxfCQHGRFivTrbreDz/kGi8sU0/ucR4g9l28I12xAlaEeFXE/EwCOzG0LBviny3A4qYlbgyTL1y5cBg0RCCKlbpsa0Rh3OFNF1rLGm6877/Z1LmIBfDuqfhL/z1bbKggSfhhwXCVNWDDjnxUWXl3lQvu+gdeB/q/2OVLMBr/pY9b8qAYa1i/VbeG6foPoYCV06hJ39zR2SFrXm7Y1hjuOx3VcNcDAIwLo7ioq8q3ksLHPsE/Ne2k+UbyDzphowMKSLEFL3mAEPym00Pru3iK729I6PKDtFOILWx/1CqSAaE0T41DRKS86mOXsw1ef9gaLnujf+v2fA/jCggOf4EPXv4hGW6Msuix9OXMhSdksM8cLUNhKf3Kms712EvvOdAxz41hF2OlKEwn0QcUx45a8VY/+7CT3fgTge4p0inuc8IYSkiq1FvKlvL0jjGZYLGxYqMlj9IronC1lDhE/vLuQjsrDQbwj4zISI81zBM4CYy2N5niS6pzR9V+1zzjL08RpKEH9y9evmmkL1T2UVQyx3EvYaPrKG7SzsdKmlnh/qSC+nLH5kT0P61vt8Zi2eVN9Dh8XVDEQ5lwq+UTMKI/iTJYTUG+sEPBitGPuAFYtp3D8DrMCZrv/foj7j9qCG+F7n+Zx32tXZvzeZCIpKrBJxfvN6jue2kLHu7XXc+kCJYrHAal1a7Rvxwo4XOcLPMur1KGF6UAlxtZhH3RsTlUD+qGZHJqvv1kdjH5hF+VCUf30fiXr+zp8uIaReQIzx7z4Pw9Yi9oUp4EsiHrJgtOc1lE5c1vPa2559/0d0z4SGkowrRViKDhu4LOmTXO/fGXCOmLpFalRMzcO5CWFXt6nvBovzYGXpIrYZa9DnqQHIc6LLgQvChqnlqGQsfrHFayX0XumnBjDDRfc47zBg8XeIyjjkYVp+G/6ECSFpB5aRX3z0fiXsE05XnUqoHE9eWGNbqvfdFvYfroe+11reQb2OQhfu4hjzRxwfOb0bPGKBAcmi6v8ICdNJ4FKMxzKSiBwguoc5hX0GswTwfMd08/Ypvs+GqAHNNxXod0yzD+RPmRCSZh4T/mujpTK32pc7XeRw0XNq3CHjec/xGN/B9dpJEcccIewMX0EWX7MoLkc2HNWQbW0vJahrKQuzr4Z1+UCEUOfr6F5bUM3WzCyzWGPAdyh/yoSQtHKdz4PvsDLst6/o6WF9t+i5xuzGm4kLlukxrv8vHXI8WFVIvhFWJnNdYTtnraD2izAqeGOjUhbWsREDjrKS8Koer44/T4n9oBO2NLUO77sx6n74qoyCjZC4xfiTJoSkjTN8HnhHlWnf2Ncl6m8/T++jPduvJnoWkHCmSy8MOQ7Cd+C45Eyvz56g/m3QFJlz6vT+w1IGHOyQGe3zMog14ts358+aEJImDvB52J1apn3Dqepj9fcFwj8Llhe/0B4kwAjyNF5QbXOW+j9irZdIWB93aorMFXV+L0K0kdjmdGVtf12CYP+TP21CSFpo8XnIXV+mfTu5xBFb65cT+tiAz33m2e7AgO0wzQnv7CfV/zETAG/s2RLYz/doCsxtvCVngeWTrJpNea8IsX5IdHcsJISQmsQvrnd6mfbthFWdK/wrPe0b8LkJnu2afLaBd7njDQ7a1Hn3TWg/zye6h5mFtVt5W/YAg6+/q8HYTTGEG1b5juw+Qkgts5bwT//5f2XYd1AmsfdlOyJCVN1ORsM9720vusdmO+Uy/1ID/f2IpsDczlszFCyFbCXssC+dte1z2WWEkFoFntR+WcVWKMO+rxddySmw7o3iEBuJ6KlpJEFxpx1d3/Vem+t1xEyPUn9vUCP9DS/ya4V+Fi4SzfzqPsDg79WQ/nxK2GlzCSGkpkCKTT+nnWLTNLqdvp5SghuXqz3n4tQpdjuawXlsF/X3qBrs98c0xfoi3qKxcbzIg/p0X3YRIaTWeNPnYbZxkfuaw2Uxv6MEKQ7ri+7ZvjCtvahHvBGK5cR/H1ejfY4+Ok9TrE/mLVoUKDiCJDfwpvemyoW/wN/YRYSQWuFRH3FYr4T9weEHzlPTlRUcB7fH92j1mjeTlTMD8O8U9P11mmJNK7A0UIoUWete9vTr/uwaQkgt4Of0tUiR+5pdfR6lGBFqdFKMz7a6jg+vXnh/PxsgXI+nqP8P0RTrCbxVy8Kmwq7J7WTCQ6z/LuwWQkiS8U7B3lviQxD7QNWku0TPkpVBYGDgdmrDdPwPAYKF84NXep8UXYMjNMV6B96uZQUpZc8UdpU05HNvEMnKbEcIIQUO94jB6BL2daTaB8pIIsnJdpqfe0FTqFBpCl6+8B6fM2XXIavZB5vwlq0ISD2KkqtzsSsIIUljsvCvaFUMV6j9wHnnHaFXJGFkiCi5E6U8p7bfTn0mjYwS/jXC3Q2pWZfnbUsIIfWDO41oqbG7L7r29armZ14XPdNomrKNFbaH9/+Ude4wLeXXA97K70aINcLeluatSwgh9cEY0T0kauES9uX22r5TY/smHxFyrHAnbhrZvJz1aDj9ZOrgmiwg7DKcYWL9irDD4QghhKScnTwCUEps8vFCP/4X4uvN2Xyles9JCHK5a/t5lPgPrKNrc1CEWL/E25cQQtLPNp6H/8eiNI9q1IWGc1hQjWXHCWyI6LkejbSgx6r/n+b5HIS/HktBYgbh/RCxvpC3MCGEpJtNfR7+K5a4z0tDBGSMGgis6Tkm1qGfUX+P9/ncy0rc6xEUHLkkRKwv421MCCHpZX2fB//oEveJbGdHB7yHcLClZOsfIDq7+nymtU6taS97yvZrQL8Z7B5CCEkna/o89PcucZ9wSpsa8N4toiu8yl3OEpmi/BzZ5lLvb8pLVWBZ18yDt7E6FCGEpJAVfR74h5ewv8XVPrYJeB/1g5vV3/9Q254Xsj9nypd05yqf64aBz9zsGkIISRdL+zzwzylhf41qH/193hum3ltJtr6ynSDsEK0gFlLbTynD94TX+GDZNpRte2FPFbsbMoPtpN7bStgVxNYRdm3uJYSdES1pTPC5di/wliaEkHSBMpI/eh72N5ewv3NDLOCj1XuryzZctjUi9gXR+Un9vYgSeh2P9GFKeNtkO0PYa+afCb0UnX7tN2WtIhzqHrVPFHbYTdi1u6sp4kgO86HnfC/gbU0IIekBIvOl50H/bAn7+1TYIV5+OIIyVENwHVFHJa6VhT09vlrI9sj/jRjw6SUIcrENIn63sCthbays995kQWF7zbOAByGEpJA5lLC6H/JYR56ryH0FhQst7BK1KEa5zuUm2Q5WVrIb5LtGmlHEW79ZBXGOanCOQ5lPeGqv1UtWNxz43nadA9OMEkJISnjPR2gGFLGfddRn/cpbnqreuyViH2t4zuMAz/twUrs2YaKMafWH1AAFg4r9hJ2TfKIaTCAJDNbHe6OE4myqz5yUsIQQQlLADFGepCf7C/+EJQNc+x0fIdJfuLYd43oPwndfFcX4DdlulO0w2fYSthPclqqfdGcferOG9iqyPSjs5DMs3UgIITWOXz3otYvYz3Pqs94ylBe59rtAwGf/KuyqUM52D6vXEcoVVU2qEg1r3XAag0f4cjV8bfcV9tQ7IYSQGuZxH6GKm2BkowBrHI5VTjatoDKa8wq7GpT7+M8HnFelGpKI/FPYzmvDUnZ9VxGlp4UlhBBSRe73Ea5tY+7jKfW5n4Xthezgrqi1XcRne7vBau8UdravNIOY9QG8zQkhpHa5w0fExsf4/HDX595xvb6CZ5+LeD4HT+hbfY59pGybCds5q1yi/JMakByqrObledkJIYTUCtf7CNs/Y3y+1fW5/wrb8xi401ze4/lMg/Bfe/7Ms90gYecev03t+6cIQf5Z7QPr7qhnDQ90ZBpblJeZkNpmxIgRf2EvkHrlUh/BuyjG5/fzfBb09by2nmt7WOu/BAjt8JDjYACwmBJvrLkiAQqynK0q7CQqA4Wda5z5rglJIa1jtpivM5elcySpS87xEcwHY3ze8nwW1utJrv/PcG27W4BAI5Z7fV4KQkgYnZZxcluL8Xf2BKk3TvQRTsQzhyXoQM3qzdTfq7k+h7zh53n25fyoLnC9hrAhhIAhIQgKZczJy0AIiaLDMs/psLJ3sCdIvXF4gJU7NOQzSN15oOv/T4iu9KPPu/bxiXr/MNdrR7PLCSFFWdR5Y2JnLvs5e4LUG/sGCPVuIZ9BDu7zXf9fUP3/Ytk+cu3jLtlud/3/ZHY3IaRY2nKZ1faZ2PS/VstYh71B6onJAUIdVi7xSWGHdXnZ37OP311/H8euJoSUwjTLXARCLS3rq9gbpJ7IBQj1ByGfQcWqR31ebxD+1az+yW4mhJTKuHEj5oZQo7E3SD2xiwiOSx4c8JlPlVXtx1jPPvZlFxNCykVn3vykYFXnGjdjb5B6YccQoQ7K+Y0p7ad9Xl9Ztrdcnz+U3UsIKbNQz4BQd+SbTmNvkHphixChPshn+z7qPa9Qby66JzK5iF1LCKmAUL9eEGqGaZE64u8hQv28z/bzqPeec722gwhPBUoIIWWhI2++qSzqt9kbpF4YLsLzZ/fzbL+Yev1W9f+9RE9P79XYrYSQigi1Zb7jOJRNzWWXY4+QemDFCKH2xlMPVq8jPGJ/n+2PZZcSQiqBZQ2foz2f/dAR6va80cxeIfXAkAih9q41rxqy7VeyLcQuJYRUxprO9G3Pmd84Qo2UouwVUg/0l+2PEPGd6dl+h5Bt92Z3EkIqRXvL6P6defMPl1C/wF4h9QDWnH8U+uvUh4ouhzF3MQ7k9Wa9WFJ1UA6x3TIn757JzM/eSJlFnTNXdETazlBm/rbH2FF/Zc+QtIM83d9ECLW7Buxd6rXthR2StZWyuq9nV5IkgAe3fIDf0jYuswR7I12gxKVbqNU69aZp+X6Tx+2I53EfXmniZR6PdezXNlfb4gZyYqXdNxP+vx27kiSBKWMz/Try5nP4l72RLqQo7+wj1DXvUIbUqG1Wdo0pzZmFKdTED9Sd/m+EUO+ktl1e/f8U1+fvUK8RkggwPSot6l86JxoD2RvpQl7X3b1C3WmZbTU++Fiz0zIO6mzOLMMrTMJ4N0KoLbXdGer/c6j/D1D/P5hdSJLz4DM3L5RCzJvrsTdSNgjLG4f3EOq8eUrNDjws42Q50LiHZTuJDjMjhNrx5j5KNtP1OafW9FzsQpIcq8uYaGeuMseyN1Im1JZxsY9QP1Jr3wOJWuR5vysHlT+o6W5CInkjQqgn+XymQb33JLuPJEuozTPVA/wY9kbKru1E834fof69VsSu4D9hGTermto38IqSOLwaIdTjfT7TrN47nt1HEibUT9gxtsbN7I3UXdsZXqFW13pkos+7aeRCHXnzQNfg4hJeTRKXFyOEekefz7yu3tuG3UeSgmVtOy+mE9XDcCZ7JE3XFulDzU99hTpvnljJY48YMaKoHBGY4pbn9m9pPX/b5fyW3YJXkxTD8xFCvbVn+53V67/JxvUVkhzLZaIx0P0AZyx1esD0thx8fR8g1M9V6ritE7IrdbaYm8T6TIu5Sqdlnts9jCz7YUe+cUNeSVIsL0QItfcmdWKpX2LXkSTRbjVu3O3hmGvckr2SDjqszAA/kXZapeLm5SDgys5mY3Udq7szl90TaU19BhJ3MVMeqbRQr+/a9mTX64+z60iiLOqcuV/3tUuznb2SDmDZhgl1R85srIBIHyyt+IdCzytvrof1Z3f5TY+z2xG8eqQcTI8Q6r+p7bb2vP4au44kyurKm//xCPVZ7JWUDMKs7BahQl2BQRkKgCAu3+etPgj/k+2poPORn/21LZfdtka7uw/DxpLHyxFCPVRt94nn9RnsOpIUMpnMnPLh+LVnyvFK9kxahNpsCRPqzrxxUnmPZ5wq76fX3a8hzWdHvmlv+fpbYecixX06Mo7V5GDXMjdAUZtJ4zOL8q5LFjMihBqJ4gf4vN7BriNJAVOQPg/vB9gzqZktOTjUos4b95brWG35pmUL2e1aMoPwf1jVTvxzVJMiflkt9zGiJtpbGtflHZc8ojKTzQuDxfPa1ew2kqyHjNHa46GZy36OsB72Tios6vMjrNhPiw2j6nGsnPksBEtal7siMYmOQNuhV8YhNTnIhWd7vunJjnzT2/ibd1vyQKWWD0T01PeywnY6+1a2S9ltJIHWwJW+D/Dm7DD2TgqEOm/eHiWUjgVc0n2UMxudNWZdgVYDham1+PyX3/PScs9IkPIzt4guc+nOmbwQu4wk80FuPNxb3sCkKgOxp6LEEvWqSzkG1mbhQBZHoO0wQGNMLfVle8vo/kixK9tvSMaC/Pi8w5JNX9m+iRDqPdlNJPEPcp/41YJlNLHpn+ydVAj1mxqCuX1x944xMig9afSatJGtlT6cOt5ocHLhKyv6Wt5ZtQEcxX6NEOrJAZ/l2h9JklD7x7Fa5jXsndrGTiZifhS9RpzNxNkvnMaQd7sYgbZna4xRSe87REPA4pff8wrZ/lTT+jPa88amvLNqh8ERIo22q+czWNdGDdjN2X0kCUzJZObxhma5LB7G+9c4k8ftuGDQ9fXEUu+qu892yxwv9/lzsSLdns+OTvRvYmymHxIAtefM9yoZxkZ6h7s0hHqKbJ2yjRN2ZrJ3ZPtdtv9j95Ek4M3x7QmX+Y3JG2qb1jGjFnOKrYSKp2Xupin61xUr0PZxGjdOaFfNpgYgd8r2i0+VsT14N9UWyDt7g4ZI/yzbGrK95Xn9H+xCkhihbjZWD32wMi60ti1qa/SSfsLjk1N7rMZ+3i9FpONOr/cG7RO2X0A5ws0M7pvsDryTao+/aog0wrDcyeinqNefZveRhFnUI0IfrhONceylOhDqXNYI2ge8/+U+vihFpFstY51EzTTkzfU6LeNC5AsImVH6PiANKqkRzg4Q6LtFV35vN6ur9/ux60iSkJbUduFWkHkYe6l2QblSnfXkzpy5k+/nmxvXL8mKzps/lRr6VVYLuqVx3Q7LuFhrmp6zSTXP4sJOYALxxZrzHbLtGLDt/Gq7ndltJHEWdd40I5yMWJyjhsEatRThHzVCpbbqcW9I8S5RpGd2NmeWqXYfIMOeHHC2yfN5RC+223yvI59dlXdPOlhMto1kWypkG3h5XyLbLur/A9htJFFCHVmwwbyCvVS7wBkQiTk0vL436DbTElHDWkOkb692HWl8h468sb/XezsqnWrn+NGDeeekg/1ky2tsd7+wC3fA8/s7YXt9E5IY4EgT9cBlL9UuEEud9eWOnLmi85k9xo76aylr0nJgsE9VB5+5xs2U9/afsWK78+ab8GznXZMObhb2VHZQKbblZDtAtueF/zo21qv31RR6Qir8UDP3ixDqJ9hLtQsSnrTnsx9GiRRih2dZonnj3qKSmOSb3m7LN21TtUFn3tgUAl3kDMAMpAflHZMO/qXE9uSA968Q4d7gv7v+3ovdSapNh2UeGZGc4kNhL+GQWr3GUkAjROozZOFSIp0rQuR+xsxM1Qabltkiz+HVEqbpH5W7mY13SjqYwyWy04Wdx3t32Y5SAv2MiA7bcrfV2KWk+kJtnBHxEPt97xZzcfZU7dKeN6dHXOOXsB1CuWIK3EMdefNQtzXeq/duzhhVrPXvXtqxrG3n5V2SHmBV7OOxitGQ0AQhLE/EFGq6/pMEWFv+JS67PcyajdXZU7VLp2U8puOH0J431owatKHSGtagq+kVDU9yeS63liLQ6vvcybsjvfRXIota0+6R2CmaAv2RsJ3KTmFXkqo/xPPmLRoZpbZgT9WyUJv3RAjWmc62WGOGlYxkH554+mntE4ywCBfROmaL+Sr/XbIWBgxlEOmLeGfUJ1lNof5aNhRpv1KJPSHVs6it7B2lppckiR+M3RQ+EDMO6XZP5My8/MyvukU0MHWMMKg2KzukUt8BxWN06mprOb1ZxsW8K+qXeWT7QVOsl5QNVsq/2W0k+Ra12caequVrbFwVPhAzWl3bdnjeOz5s31Kc14DwIc1opc4fmc3kffp6OURaDkpO4B1BrtcU6hPV9tuxy0hVLeq8eXW0RW0cy56q6cHYJeGZuBq3tGdXukcASFE7OVRAc9ltpbA/gLzZFTv3XHaXcgi0GnAex7uBgKGaQv0Uu4ok5CF+kUbWqnPYU7U8GDPOC1mr/XLcuBFzey1pKWrXhO7Tyv6jM9/0ZFsuU5HolUwmM3vnRPNf5RJpeQ938k4gbs6gUJPaeYg3naaxpnc5e6qmB2OnhAj1TVKkj/K8dkvo/izzfGQu67AyfStxvlNz2eXkOb1WPku6+xo8IQCej99FCPUF7CaSEGvrcA1r5Eb2VE0L9REhBSi+8Yj0I+H3i3m93ObjzonGwIrcj5axR3ve/KFsIp03d+cdQIK4JUKoJ7OLSCIe4pbZppMUgj2V7musprtfiRD8d7FdBc/z/HIJtEppujevPgljywihHscuIsl4iGctjfCsu9hTNXyNNRyy4FUdlIGukENbijhCtiqRD7t9QmZ5ZDkrp0i3W+Z4Xnmiw3shQt3K7iFJAGE1zOCUblotY52I6/v+pF22/j/v5+BkBqvU2W6aZS5SzPERXw2xR9lJ30GAJ7lKyZZ0LmvwqhPt+zNEqBk/nUCQVKHurK28sZWGUN/Cu6N2gRUcVpDDm3EMsdHSgj63M2d+1LWWbWwfexCYNyfJ/T8P72183nucqMptRa1J5xo34xUncVhCtj8DhHomuyd5wGJob2lcty1nblQ3FrVlbqAh1Nfx7qjx6+xTQUsO0r51W7ntzdlhnZZxYan1pWHRorazvG++breMvSxr+Bw9B4jmmWUV6Lz5JxKj8EqTYng1xKpeid2TwGkQKztEPmQORkUhrN/WwfddgykX62DmxGUdK2H7dVo+s0LhHsg3LRuUZlT+FrQjVNrz5uZS6N/AejbKZQaei2XcVl4rOvt5NYuEkNrn3yFC3cHuSbSlebTyHH0b67i9UXCgOt8zs7KGtcICMjVKIXGIZd7ds864saYtrsamQeFQ8MLWOcakrbeeS1rdZ8OClr+bs0IHDHnz8TJ7dr9dCQc3Ume/kxChvoLdk3ArxC6n95sSqy+QYnH3TGb+VAl1zlxRw+v7QN4NNXp98+ZzPT2iGzd2WcHTA9LG7q9nRWdHy9/GHx2WcfMeY0f9NVykm54s73S38XBaB9Ckd0Hmnt8ChPpedk/ywcPHbQXIvz+RD6V90zKKb20xV9Eoc2nxTqjBgaZPRrJ2y9yxm9C2NK6L+GjZfnG2QalLvdkYpBE1H+/IGaOiBwzGveW1pBkySMrLPQFC/Tq7poYeeh4nm4IVkTf/Dau7poU6InSH9ahr9n491UekdwsTXeWPMDJqYNeeN5od4e2wzF3ly30irPqDy+g09pOTbQwhZTifQnEQy2zBLAC81VFoBnHZSEMqLf4PMSWvPof2pTznd2R7UG53YrEhZySFs08iuC71POyemrJQjgl4eJzZ2WysXu3zQ9xrW3Pj+nGsfVROinw41vhgpO4eOLms4TNN3BFxb3+J9KCB7zeNXCjMKpaff0u2yzonGuNQqANr44XPjR89uNwhWCgyYoux8YA85qOFEDA4seEclDNbZ858tvCeZd6DaXnkq0cBGtlOx+9YCnU7BhmcOicO64jgdep+7J4aewjmjVzIw+oljOzlQ2rO6jygu9abdacvO3PGhHCPWvOjKIuJJOj+tIwmn/vy9AiR/gBCHbHNQzEt3/dRy1r+Hp4u45r02e2WORlZxzAT1DYuswQGp7zqpBwsESLUq7F7atFiMUZFP6TMQ2Hd9uZ5jRgx4i94iMnjP2FnaDLzxc4SuDx/7+EVrw1gycb13IaXtrwHfg5ykoRHN+6pclvFMUX/0ajcBrCOUTcdBWRgQRe80HPmfhhYY10eaUp5h5AwYI18FiDUW7N7atVyMTdwO+CETNPdW401Xqwj6ljWSA8a4bTDLHq1INJ2LPQfnqpnL0Tcw+eEpQbttIyTg7zCe1Gkjwn7DpPH7bggprs19/UqxLy3B9CkdrgjQKinsWtql9YJ2ZWQbEHXSxWjfli9vXV+SKcIL3UkNQkaRMLZJmLqez9e6WTTPmH7BTCL4xGlGWHhUk7pS2+iEGQRQxiiyix2q1MXWlrmx2EtuJfE+V04hcFRLHLAXKSjGkLF5Pfs7GzJDOcdRBwODBDqh9g1tc2UsZl+3odk1EMI64i9JtbSmg/KLoUsbJFViDhlmHT6wFLscd1CHAqdZD6teXO9bq/njCmzcgZIAUf6T2WZH12415szC2Mtu8yi/CsGsciMJn8XZyC5UJzBLKbFS3ZOs8wbnQQwpL4ZKYLXqddh99S4RSMfiigTGPMB9RAeSr0j1uY0OI31OO+8sXPEOT7Pq5tsOqzsHT7XzQyxQA+1M5OZU2fdBzljDO5f5P7GdLd9b2RHq33d5/78NMscCmu9jEL9G8Kkiv7+efP6snmTW8bFnRONEbyr6peGEKGGV+0c7KLaBp7e8qHxVBGj+RfgwVpRqz+TmUc+hK+CV3h3a8Q4KrxcYHQiC1I9MDXtcz+1h4jadm4HwUJubjUb5M7n3jmx6Z9quea5gHt99qDc4EXXj86b0zE7FXuQrHwxypxM5YKoLGskvYTVp76c3ZMasf5PkQ+HqytZWEDueweUHfQ86G8Jy6HMK5pgkbbM43zuof8EW96ZvpjSdlJvqvhjJP84R1qRA12Dt5Ns4cx+GBVjDO/qMk+Df9aZy+4SfxBq3ldusW7Pmd90WsYhTjw4qR9uDRHqX9g9abJ0jAdKGM0fXMGH+zRkc+o6z+Dcy5U8D1LioMsnVlpapJ+KkHj3zpy5k1fUJ1ujl3TeR3iWI7zI5LV3i7l4+MCvaW+1nysRAlZWi9bK/iP+vW08VgnHtoJTXQKSGZHe47AQoX6G3ZMebM9Z4/ISHg7PIMNT+R/w5tHuDFXygTwzyJqABVaBgcJhSAhTp7dFH/1+ym4RFAMfVO0sbPmkI2+0IlbaSWCDeGvnvWnNo5cuJCaR1mxXLvuuGtU99pUz/uaIortSViG1aM4YU8j4lTeORbY+O0bbOBvpdzFV3pnPvhjDuj4z5mzW7PI4J1TMEx3foWnkQny6pZ+dQoT6ZHZPCi2fvHl1qc4tCL0p3/lkV0XcNP5WxUb+CIj9zpW7L6aONxrUw32DeroHWlsygyCucaZQkQrTWUuWAnEAko6EDa6CSktCkOFVrQT6x0Lua+UNjmltxCi77wFYj6EhXZZxiCuRymHF9Icd721MlMd9ROP+j70kKAc5GWfQUYGwsY/luWf5ZEs3q4QIdRO7J504a35FPxwmmv9Fta4yDh4ugNNOR75xw4CH0deV6YdChaZX6+jSz4b130KGOilO8cSmqwCM7LNLMS3dmcuu5ZfGE1ZqgBW9f1A4IGLj3WIm//4eIhxyz0xyHCXldrdh0FWugSO8z8OSqmB2CalC480cZfqq7/hLZQTbuEonxpvUJkuFCPX27J5UW9YnliONYjkeDoX6wbnGzZwHeW9Y00jhaK+jGjvXx/Vu3BBTzR35pq8sa9t5ixEw53q4BjqX+l0vv9SaHbns1krkJvkMmG71y+cOnwQUu4BjFkpXqqIWz+M9z314p5raPh2DEKQXRcWt9ubsMDU13Ke4PjNyQRnG4NgWkrQnTLAHSMv/7opNh/uEPJLaB0H8nwcIdTO7J/ViPak8a2XmuaWEjmAaVVUR+qS3avzCuxglBnszK1tVZk/s5DLPKIeoO0rssyvc07/OYMcjmhcFfBZlHWfYVj1qRhtXIQyw2GQldnlI41tp+X6nse0XsJDlv5cUxNflUa43kDQ2xX0YcO8X5d+glgBur4x1nX2RZWDTx5MBQk0P2/oQ6wPL44na9BUe3MWfh3Ge334rUZvXyYLlZ92lBThkOcKqpkZfLnWfyGHtzQ5XKDxhme+EHaN9grEUBDlKVCG+7TnzPXh/Q/Bxb3bmsnsidh7x9u3NmbWRuc7ZLwZZmFJGdjJMReOcnJkZ21HMDv3SXT+PFtdCjemnfc77lOJnk4ydgxwoy5Dd7Cw6m6WH8wKE+lp2Td2I9XblG803PVlMrmI4dPl4tR5Q5FcKnOqcmssu5yqVmTrstX7zSrdDFmLTy2aht5ibyP39if065RxVEYqTUXMZFrOzbWEd2/au/sUbD1+wqKWgysHdbvDaRnaxSeMziwbPDBgH2LHWssl96joAYpAwLZ9ZAalJ21sa1y38XWK9Z+xD5Rn/xG21I9ys2PsVU/VxPNDjxF7Dg959XUhtMjVAqN9k19QP8EyVFs8P5Yv1NI6P43CD6kHedcfY1kkhbaqxT9hDCQLhTNen6frZYmlOc0Ke3NWZKmOtGw9LsXywW/9La1iJtdPXL3vO5QqsVcc+nmUuElCc5VndGueVAGv9CFmU3/kazChhKh5hZxgMilLWxStQaARe+yUMJEgC2FoEO5Qtxe6pHzCt6H3Ql+bYYv4orZ+DdIXGbZUXNdjIm0fAUSdQyK3GjbucgdLjRIaHO4TCxxP4ZWSmq8Qx4RmtBODx1jGjFlP9f6uTehMi7nY6hMVcvCAOn8Pv+3WrOuVJRVuV62Bl+mLggAp2pWYPa881bqkTLlaEd/jL9RaOmBZWCBHqEeye+qKwFljmer944MgHxFbRDzo4GZm/Og/++EINJ5rgWFpnLRVrpe444Jq9VlZm5aCUq7DuyhWy5AbC323t2zLvUWvKTwRVoirPjI95jYYIdaTv92iMwuAThULKLNgnFZPHnFQPhGp8FyDUjeye+sQvPrYMD4cHoop9QHhQWrCIU0ZpxbeCSmDCEciVtOKMFFyfU8Ic+zA9XRnr3fYgVyL8pWvA8KVnbfQ9eFl7y1YWbWFOMJbSLaQRN0a8RgZlAxB65hcZUcIA+mcsl/BpVzvMEAzRIj0eDsbFlclVbBzb2ZxZxleActm14ACDqfB4ApLdAYOL4Peb3p71MG/OrF2r1wQDHfe0sq9YtTSuWxmR7h7njvSc3cS0OTsMwlzKNHfo4CRnTNAU6+/gc5HG32Qh/3khvtu8B7nUy5WK1J1jnSSXBwOEupVdU+dinTdaK5acIW+e6ZeOFJmmUGAh3qAiewfCrgK+w+GuY75eu1a00RHVp37JRsojktldSnX2K9NMwq0xBoTnpfm3CWc2ZHhTXv4/l1jS8zvlBEcSzNUBQn0Gu4bAQQZpQysk1u8jVra7sJrbISd5jPNbtlAEoiUzyO9h5rUeak6gx48eHFb+s8t5L145Rl2QzMZ7rEqsf+talEHr4QFifW+llgGSBCqLwUESg1IsOQRlVItYmvoWvz0+8ZLLqYIVtEgIKEVZqUxKSrBvReIKl+X0lu5aIzJcYe3U/z1j324P7oAKUImd0bDMXXXyQ1cizaoz0MEshOda3VfNPilUpcqb38e4t75A7HPdDbCt7BodOWOKvIduDEr+4jsrU8WQNxLOfiK4JjUz2xC3tXugU/2oAmL9SXve3FwJ9UuwDCKtzby5OxJw+MVsw3vcPSWI83YPBpKMLZDGUZolSA+szCAh01fu+zmfbHFDq90/OIc4ljUGO5Vau68FCpXJkE7WMjuRQ8COxLAT1wRUCduDT7vk8Q8RHKK1JbuHuCkUO/BJpVhG7/CtMAUHp7IIC/9Mezrb33EIaSi9Vnst9C/CZpA4RDexTCXOAc5Ffqktk7Z0EGfNurA8UiYv9FQMuuFJbhlNGBDDS98nD8J+7KVkMSZEqPdl9xDfh6RltqGKUIXE+ijERftZykg5iexNcCBDpSS/c1Nrmb94pr0TH24Iz2asFWrWBr+8EueAWHqUovQ7Zliaz+rN8hg5LH9oWtZ/uPOFk1nMhtksVYoTBXLed3IgFJvXgJSfHUOE+kp2DwlCrWFeVKGp8J/9HKTgfAYhiXh4n+ed+kSGq6rNQljmZGRGC7dwzLP0naTM6yszUCjUmP49oFJUomNu2/NGs85MBAaXUzKZefjrDUcVIbm7UF40Z+7EPqs+m4QI9QvsHhL5gG/JDJc/6vPLLtY+KUELiR8mmvcHC15mZb+80NXoF1XF6pGwSmCo6Y00mDEGMBUJjZKWfDYozAex7zVzLxYqaJkHh1Wlku8/xV+t5oyF/D2154ztUR4US07skeqxaohQ/yQbR1JEcxSeWS2odm+xzVvrGmvTYUU15PvX+ZT8OzLO90DCFb8Y71gWnp2v+XslrpcEiONWMZNTPFaRh3HOGBUyMPi6Fu9FlMFEvWjUwQ7oy4P4i40Nq3BVkb5KkIPEel12EYkDMmipUoBflyGTWWt3i9q4tiOXNYIeJH5WIRxnYg04mhvXx9RfkV+/jzuLV5BXuhSKE2IuBTxREZHOG7nwwUF2i5q3CvPmdpiJ8JmxaeGvldQSM0KEehd2DykGWMOYqnan8CzCsexhZ39I7IAkFk4t5J7il7X8ioLEtzCzW2P6tJjvjIIf8MZ2ksR0Tmz6p/t9rPVhsBFvsGI+V4k1Qlj94Q5r5o1puh9VqtlXPeFmi/CXSmqFu0KEejK7h5QsCi2N60or8lRdr2a/qVeUsoRoBR2jM5f93Md5aHTcc7VDxIxrSxNBO+RFuKYLkXgjbpY3VeO5T7mvB7zgI/r997SuSRYEO2d+pL7nZ3CK5C+U1ALnhgj1qeweUi6QdASWLyxj3alxJw0kqjQFrS2iSISf57goYl2tEKpimU+XIgSFQYJlTu7ap7EzanTHtaRLXSv3A0sTkd7REV7qtU4hhM8yTlYzB3SaJTVBZ4hQv83uIRWxbKxMX4QEYU0X06yqPOKfqlDAD8iQhNSlSKWpyin+GXgD+4TmhHmHh/4YrOwWsM6DptijcCdYUSFsl8af8s++WBlLOrs14onrWaQ9g6pVsTSD2Hz+IknSMUKEGg1B71vLtjK7ilSQPnbGpMzKztqhChu6BKFayF3sawFPyCzva5EGO51FDCCMkcWuX8qH/mlqylugUAjylhcRlvZ0JdakMfUeMd39J2YD6tJSkYM61PlGuk3+DElSWSdCqJHV6TXZTmNXkd7GZWH6P2R9QnBgnRf90JaDg8I+JhhLxfkcMnfJc/kN5SaRIKTIRC/3VcSSth2pfg8pdfgprMt6vs8Qgy37yITTIn91JInAYv49RKgPk+0EYXuH/4XdRSpNJpOZs7Cuq+KikVTF3/o1jw5Y351U9ANbeY+jxGQ8gTcfxYACllmRHu5XVUSAWsxNoix4poq0QaQCajNjWUYwbpgkkHdDhPoBtQ2mEldkV5FKU6j4kzcvle0yJPrwK7/nOG2VOy+1FMx9ClPfMcojYj29xJSpp1dEpC2zJSJn+M2823qCpDdImsKeIEnjQRHtUIYwhjXYVaQCFvTsQQ/Gwvq0J40lsqCFWKYPlChuxxVq81pZrXvdjhdv+qropC4xM6dpDx5yWSNicHAF7zxCaot/hQj1r2qbrGz7sKtIuYHjVpDzlhTeG5BL3CXqc4YJY6kVkhwvbVTqitq2EG6mqg0VJdIVqurlzo4WkELzAN51hNQeB4YI9Q+yIfnBTNluYVeRctOeNzYNqhfcYRlnQDxdwv1wiDV9dqnnIgcF9+ikz0R8d3venF7kVPcnKHZQIZFujYjPPph3HCG1ST5EqD+X7Qn195PsqnTQOiG7ElJeJuFcIC7wuA2yDqVYX6ys3SPCwoswhV6yUOfMZ5VQZ4K2gWewU3Qjfv5y85nOppELVaIfsaYfGiNdocEBIaR3aBLhIVpO+1G2BdhdtQ+8geGhnIhzsYyTUWvaV6hzZl5auW0IlwoWv6avUEyjTGI3Q2UW283vfQwGkCCjSEv6lEoMjuwc4+aVIcf9Al70vOsJqW1Gago12t/YXSkRaylKKHNYfYva/LcU48P83oMV2GGZnXB+ChLpzubMMmU6lT6YllaVu3L+fWZcVZzTWPYfUccu+pwt47EQkf45bgUxQkgy2TCGUE9gd6UDKUaHY6q36udhGZc7aTd7vpdZWYrcHT4C9BZyf5czQQU8uJG0RE19Wz3PxdygCCv60qhkIoVa3nbsbiza8k3Lhln38r2H2puzw3inE5IOVowh1Eeyu9IBKiTZCUXMTapq2VvGqciO5ftes7G6FJwzsU4tLe835d+3oAiHqEAGLyRWcdXCzvkMKC6OkcDk5fbmzNrR3z1rdU40RoiYCTamjjca/CqGudfCeYcTki4wmv9JU6gvZ3elB1R1KiXlZnmE2k7M4ZfjGtWeemstXQpxU1dRD2Nct/MYM2oxTCNHWM+fIS4a0+dR3tVw5pMDlAvbctlt454n8pvjWCHncV2FEnYwWxchVeYtTaF+iF2VHlB7uZDNq4oe4K0t5irKCt2qx/nlzBWl6F3QSwOGw4KKevhV6HJZr0/ZDm92WUrU3W7Pm1OD+7yQe/ulYvwDMJUdViK0c6L5r5L6oGnkQigogmuCjHAYcMjjHVPwE5hoDOQvhpDqcqemUD/LrkoPsOhUEoxDqnUOljV8DiV4V/pZj70l1Ci36UqvObJLpI1D1GtNsILtil7GQe357GisL7v34VSpwnkHWO2IC/84KG48/FplVguz6hFjjvVwxKXDa11uuztSoiInumxnYeoeznD4nvK9O1EEBI5oqH0tX39N/v9db9gZBihIkIKSpEyrSUj1OVFTqF9iV6UHPHydh3I1zwNT8KiV7H3dLpJgx1FXfnbBfLOropSxqW3tZwapcK0dNfdxQVBfQkjld/xVR/AmW6OXLNThRn3sicY42Qf7wlIPj9EuPpWpz/T57VFJXwghvc+umkL9FrsqXciH8k3KIuuo4jk84pcCFFWspFV3zbhxI+Yu17Eggu1W48bdrNVxmSW6JQdR3tKwMGFV6u5bTT/f3+M75M1H4d0+67VmY3U4xamp5UvgJIfPSWv3Bfn3TNl+KZfo6otz9kWEkWH9nL+KUmdnMn0xuEPueJ10tIToMkxTqL+SbQ52V6qE2lRW1JfVOwfjKFUbudvaLtZFEWaE0Kkyft9jvF7dWB93ixZek+eyeWHwIEVc7+Fs7up1RJOW+ZqwopWV3lyIGVex2klo7TnzG1jPmMav4OXtk8bfDZwfER6IZQ7cKyiviqUF2ZcfFgZ4yFNgmUdOGZvpx6cMKScfa4r1cuyq9IBQH7+12d61QOwYZUzveiyTAYiZRm7tchwHa8NYI7asbeftdhxXIQv5/gftLY3rBsVTh3wHWMO/OxYVMq659vlbUsRZrT3fI/s6i5KOFbuvctnlOnPmTrtnMvPXsGU8AOvzGIRhECn77dzCsoC8JxFSiOUan2WDR4rx5idEl7s0hXosuypVzAZrWllY75UjZ3ZcsG7rODK5HdsKYVE586OopCExxPRBTPX7vH6W60H7OgYMOB/d/c5yIsub3yHu2+nPRIlz3nwVjmWVntpGJTTkZYfDWnuuccukWtRuixhhgAUHvJy5n1qKeEj21TsxcrjDIW8fWs+kNzhHU6j/xa5KF+7UmJiGrso5TDT/1WXZZ1bGawgbK1Sbypubl7x/K5vBvv2ymSH2uEfJTI9Hd3j/ma8nTZhneYJb2X/0RmgVrM+OvHGeGhTcp7tkUOlBqBw4DO3IZbdut4y9Cl73lnEbpqWVRfxTkcVV3izsK9e42aTxmUX5BCG9yZGaQj2DXZUuUBvZ9XD/thpWdVuL8XeX9fc1PK6VCH6CqcdS9+9kDPMX8e5x0pi21t0vLLEEWc0/qyn4IxAL3SsDrJbMcIjWrHOQVmlvizHEEilVO/KNGyIsDTMkhfCzvPlBmfr1Y1jZsJrLVQCGkKJng4R+KtH+7K70IIV5ToRIuXNUV8WqdqXFxIAB65vSerkLD8jSrD07/adK19kNeIF7HaxEjCxcqE5VVXGWfYYZEcwYYKmgVx4Umcw88pgTMZ3uSrZyP6qcVeqYSCgDb3kMKrumqJuehBi7790yDnoeRSREm5Vdo5xRB4SUys4xhJoxlmmzqj25rKsRVoI1VG/ObCTjkOe2R9EP+JwxRj14n/CfTTBGeSpd3aF9vmqqV1mSP2I6taJe2nnzu0ImtLx5XSGRSS67deuYLebrtYGUtJ4hXvAbcAkaEqXsXo79w7kNx0BWNHjPI7GMKtryfKXX/eX+3y+Eycljxln2IKS3WTeGUI9jd6ULWJueB9cTVTiNPn4PZFhRRT34XdZyUKUtxLp61h//rWf9N27mmS6/EN7kqKEtRfQcZZEh49dnUmB/QJgWvL8L/9oJXmbKY98NB76oOtYIoSt4rDeNXKga9wbCzCCYnvP6o9TYe3iGqyxqpyNLGmYzejU8zQ6lOhNOb9VY7iGkGAbFEGqL3ZUuMM3c40HW0rhurw8YrOwWPmL1eFiYD97zOkxhuhJVpKLE10m24hLcE6LOEWlP4ZDU3fnMPyQH4o04cDhXuePBMU2N+OUwRzQpkDtXfaYl37R39xmHwhr4MY4PgS4FD345GEQRFjvMyXitKnHjcnCEim0YaOE68pdPag2kNvxCU6ib2V0ptKqlVdN9/dP8qDrnYZ7vI9bHBIuJcbwU47HdX7NFGg0hQ/7iscV8iH3uLkTh0+zwREc4jjcuWfe7wbKX59uKTGAhVvT3CBkqtv9gHWIaGYOD9pbR/RErj/VjOF1hrTeO9VhYj85ld8FAJG7cNY4FR0AUfynWw7oMU9pf4PjI1V7JuHFCepPnBWOp61eo5QPZJ4f03lU5F5Xa1F2lylcMmjNrywHGG24xhtfzLCvKMneLY72HCWR7ztjeJ1QH1nqo81khRAhhUoU19+4DA7/pWCeFaRSw0AsZsXLmfihqotavf4kpZDPsAh3m3XYlMOOxQgjTRPNfhbKdVtbCzApixZF4BsIfJvRTmjMLI32mmv7/ogrC/Cfi5ZF3HfezU9WMkDRxvaZQZ9lVKRVrzxpxNVOLupNOYKrU/3yl+FnmYS5L+kCX89X0CMt9mue7fh1stZtXK4v7ZljwUgT2hHiFWd4QCpS0dO3/CpXdytcxCtPKcaw+p2iIx+HsU9knDxSsWMu8Rv59gxLe+zHNb6+dmw/J9++FOHum/R+zs5aZ72oI4tfo38I0MgqHIDTKMg4KK8NZQXH+veAIJq8Jy3GSeuAYTaE22VUpFeqJTf/saTUax1bjXLCuCStPPYyv62HhIpe2ZT7tWHhOUhO1/a+IrY0YlJweNXtghwMVQqBehvWuMytRiON1hQzBuoQlWqhF7fKY9ojNTcV4cMPJDJ7t8JTGMWIPhvJGzgmHk+dwGcKu3DMEcGBDMhMMSpDqFevmWB4oWPKW2Sb77O2qTGlj4GEZh2DJo5jvTUgtk9cU6vHsqnSCdJ1+D8a4zkNlGzhY5vnwMPabDi5kiMqZuGcFhMozJb1d2H4ROx62zozjOdZwlIMZ9lXIBe2xRKXone2IryOI/pZ075Ty9APObt5c5BhM6OQ5R6ERdyx1ha3mLwszBNJqrta9SEhS2FRTqPdlV6XYqpbWo5/FVx2hNt6QltyNPUTaMjuRiasgGKqIRpxzlWL0LCzIWWkvMSWdM3dCClXE7ar9PO8tidltH3Zc8dlOhSz1mVvaLXOy28qTg4YTQwpknFv1620ZpwaI430o3uHeFmvQ8vWL/ApSlNli/m8hqYm02hE+VcvFPQgpNwM1hfpcdlWKrWrLGBlg+fV6dS3EGUMY3K/BSi08zDEtmzNX9KZ7RJGPCCu9zSlnaQ9MzMfd68aojuRY6n4gPhsi71keON6veAjWtEMs6ZuTcL3hiBea29oyj3S2RaauCgrzFfAxQJrOqGtISD2DtalPNIT6TnZVysXaE4LklGuESPWqtWc/wG/yiPc3EFIpGkN6TNFHV4dCtbBfnalxJO3AvrDODUckWIzBg4bGLeVnb3X1x0VYt/VLMVkIa7LMe0IKZrycJDGCM1hEgY+XnSlnDJSQuQ7OeFgrLsVDG4li4JSGpDCVruxFSJp4REOoH2E3pZvOnDEhCVO1CFeSovofl/X7EBzMENfrY/kdHfm9Cp7Q5iOu/V2HJBwR5zAaeaVdfXC3U+Er8Dhq+jwwDKuCebGLvuZ585QIsf4W0/3ezyHDGGLD4bWuWzwEhU8w0HINni5RMxPnMUsYIdFcoSHUD7Kb0k0h73LAOmRQFq4KicdLEEZU1yqEYsHRya75/Fvc1J9OhS4nhKcwhW0Zj/mFRCH2WYVSve8aCJwVVZUKyUWiRBox1YkdoOWNk6KsYPRj4KCmObM21ugx8wBnv0KN7lz2cySggfe7S5x9BofmTk5Oc1XLmhASwFkaQv0Qu6kOrOqAhzaSavTWOeDh7i1K4XM+v8pN+2iI/gxYbF3WNeJ+jYe7bTN+9GB3bWzHgkYoWNT+7Sxe/uFXbgetpF93OO9FpuPUTMrSYWX6wrN81v/z5nZYLggKnXPHhne2mJvwV0iIPzp1qZ9mN6UfVc7w2wBHqDN6ZbBgGReiohUqRaGQhY/w/aFTexkxt9i2m4jkjXud1KNwYEJJTY+Vfr1uKk9M//qdnzfsqVbySyOJTFSN5rj7LPgBdI8vfwfXAKFtSG8669hNIxdCfLx9DXo66BFChGjXEOrX2U11YlVLgQucwpXiWfnjZzOFUKoApyWk9YzaB0RAWcaz1qILla4s43K817O8pnmTysjWR+ccCzm189kPNao1jQ79rlKgkpS8A97eEWIdO2QPCVoCSnj+gOuAAU/XQKpxQyYzIcSfJg2h/lw2OnzUAe5SkX7Nz+NZl0LdYR/npG7ilTP3C45BNg7QEpy8+RzEvscAwK5B/L5rivuagtVnl5a8RGtUOyGzfFTazEJJyJwxwWNdzlmYZm8xN8F3tEPEsi/Csk/S9UdtZqwxhziYxS516R0Y+TgsXhNUlpQQYrOhhlD/KRtHunUCHLVCHtRnF20tIzdzSFUsZAQLEb8rtI6RN7LY3usw5g2dQurUwusQT8t4zL2uGmYBu4U+2JIuOFTticQnhZzU+aYnkZPb830+SJpIu2ckkDs84Dr8FjdTmD0YCi9zWajdbc+AzMZfICE9WVboJT3Zhl1VHxTqPYeUKQyrUBVqjVqNG6NohL/VZVweYnFp+0iowcRJ3Y7rqoIlv9dnTqhVobBE3pyhEyteSL050fxvyTWS8+Z0xCTXxIDNMnf1q86FfogrqIWa3jnz2aj+QS5xnRzrhNQbKAv3g4ZQd7Kr6sqqviAsLraYfWJtt1DFSVqmnmNdHXKsd+HkFrhPKzsE5R9ta9ouuuHzXa5XYVJ3OE5McFrCACAsZahjXRZKa+aNB0rMXT1T7mOfWrsPCiU7fZLhIKNYfOHP9MVARWtAY5mT+SskpDtvaAj1Veym+gEP6Kh1xWL2i3AlhOvM+r8nNMq71hvmXKSE/3D5Zx+n1rTfGrjXsQwVo+AMFhQyhGMWim6gDGTIzIJOg4XoXa+uRbA27f1uU8Zm+hV5D1ymNbixzHtQUY2/RkJs7tUQ6pfYTfWFkz0q+EEaXXHJZ583OQlUpFV2aFj947BQKYgE1ouddV5l5T3lY00fiBChrv8bx9uJVLJrdbOcd9n6/wpTvXLggHrHpU5xw3rHOnWqZllQAtTtjOdx2Is5Y3Ow5kzEJ50TjRH8NRIixEUaQo3pTla0qSNUScRfwx6kRQj1FXDgwnR1eNEG29krCCXMzyhrr5CoxS+XtgrpGqPE4U1p4X7ldhzDtDrCksI8nWNMb/9aqEWd4jVW5VD3UNeMQXaHoveVa9xMtyoX6mHzF0nqnYOFnkPZCuyqOrOqLfP8iAfo9TEtqUORdATTysH7NPYPSlvanjc3R4UteFEX9meZGyjrPlOwjMdnFoUAuLb9Bs5kao34Adeu+iBfdVRmMQ1x/gJ90JEzptRTDLDjDwDHslKKjSDjmXbOcMs4hL9IUs+M0xTq9dlV9QXWcaMdf4y9tB/MctuIdckWe4DQPWYacbbuOs+OVaw+84pLQI5wvNLhvOV4LSPj2azBgpVZOSpcSG9623zB6xhXZ4O4FjVYKbW6Xh+EsWla1nfxV0nqlY01hXoMu6ouH8jnRliVv0/aeuu59PZlHBRiSR9vC6kxEmuY+Bsxu3L/t7uE/BVn7boj33SaU6ca/5/WPHppNR0+mz1tb7yszm/3WQMPaanDa70M09yI6677mF9n4IXZi9KtdONsTSezux1Pf0LqicGaQn08u6ougcXzZ4R1eaPew9h8PED4bumyeI19UTMaf8PJC9Z1IYmIfEDP2iaXNVRlrBGuQcAJyDKmjlPIw+1OKoJ9hiYpifiOLqvuRN4SLrHOGzvLvn8D8fel7ivsGnnD3eD1z94n9cScsn2pIdTXsqvq1ao2To18eOayu4Q+hC1jj4BsZ7NC/wpZrCzjkDYru0bQfpA8Qz2sr+t2jjnzIzlgaJdCeqV6/6Jux5cCK8/hZin4x8EbHNYg1svbcuZGsMR1HJviTPPX1f0x0RiHpQbdmZXwe62Q7vUXjfvtc3eoHyH1wHMaQv0Bu6k+KeSqjghbgmNVuOXVPY2mU1HJbU21tzSuG+U05Fjl3fZtNW6szuEnVwEPraUaiLbmlGsL74SQ6yuvAXKhl2NfSEijuwyBgRZ7n9QLNwu96W+m96tTEIqjkeDjNF9xzTVu5pdO00ma0W6ZO9re3uZGYRm8ELaFz3pjrGFde7On6RQQifJqjyv69U5YFrlixFpexye0BlEpSCpDiA46sdRo7eyqOraaNFJAwir2sYLv62lN2zm31fu32uUjzc1RZcvv2HAQc5yJfPb/hxMu5vXyDrHMb9ETAXMnXvnq4dSq1pjxmMbeImnnVE2hPoddVcdC3ZwdFu3ok33R/RmEVnms3e8LMc6qXjOmvOVrH9uWd3YXb+Url7C+hCpLPR/kxgFKnG+T7z9aqJ4VUmgDcb8IKdJyHMsZo3jVEzCbE1Eq0+XodzB7i6SZIzSF+lJ2Vd1bONM0HpjbOdtPy2dW6LamaGWHwHpGqJay0r/ryDftrdbBT/E9prRqlZf3uG4DB8sc78TyIu+3+vuRiPO/R0+kzUZe7QSJtaYvAZZQ2FskreyrKdTns6uIFMPnI6aLf0S1JGxrC7DxAGowO5W3bGHNrgprW773rW01GfsGhT7BUc3rQObUnkZoECwpCL7tXOSf1QwFHvwqQQU4xpm8ysmjrcX4u59TYs9lFWMP9hZJI7trCvUJ7CpiC6z5fZxwLSmsW0GU5UP0DNSFVgJ8hBOehRzSfnmyOyyzU61BHuYSbtOpL43iICjiEWZNw8kJyVI0Lek8r3BymdKcWVin7Kh7VoeQtDBaU6g5rURsC3VCdqUIq+bybtZQvmkbJ8TLqSwl//86QnpQqEM+fG/oNhBoGrkQ1rGVh/inLsHfZ9ZgoNlY3f3Q9ku60dpirgJrXsu7O29O5ZWtDTryRi5yZqQ5swx7iqSJ9TSFek92FZklmtKaDZk+/tktnFK4m9TrfxaE28qu4TiHIc0nkpW4HsKt7n1hnVs5gV2m9vGLtHxXdNYtC5mqfLzF23KZ1RxrO3q62+jgFa0xsbbMDcIiEVB3nDWtSZpYUlOomfSBdH9Y5oxRIeKX7RJ1VcRBlbBE4hKnoIYU5mshqrMEFs5mefMllRTlLFhPjjUO63rqeKMB2yF9JZrvIKLF3EQ7d3dEWU2SdOu6q2CLz4BxBnuIpIU+sn2oIdRMoUj8LJvOgNKEJ7gepgXrt0tkzR9QghKi3JFvetvfYjfe8Dx0L9OpWKVKW/6hGX97HK9gGmZ3zJaggivwhWAPkbTwsGBhDlIk0rLd1PG8dj0gb+oS6qa3Hc/tQrGNvPmBEvCrO6zsHX77tKeujZM6c+Z+WMfWGzT45xSPk0mN1KhYTzQGwimRKWBJmrlMQ6hvZTeRYKumkHTkA9fU91F4HSk/lXC/payfaYhntq1f8xukGC3PYMGcqj3dbRmn8oql9D7Mmxf5WNU/seIWSQOHagj1a+wmEmDNjMBUNSoodeSMKVhbdqopodKReljealu95gvIz2yvRRsvl+nhfEyMetKn84qlXayNrXyuO2ZxZmPvkFompyHU38s2P7uK+FjTB7irYflZuR15E4NBUXAKm7D9Ah1W9h/lsGzlA/hS/elug8s39XJPtmSGy3vuLk989dXsGVLLbC/0PL+XY1eRnkJtXoOHoo+I/g5PbWQrg4e2kw7UtqyNi5H3u0SRvlNbpC3zaF6p+kNe93M869Vt7BVSq/xdU6hZrJ34CeYn8oF4ZPfXjA415bg74qcLCUos4zHEvhbioi3zaVTFKuZ4yiHtcX1L2jyQV6l+kYPEZrdXOJ3LSK2ysqZQs+wf6QbSOtrpN7Nbu19XFaimoAAH/oa4OvWDC2vaRa5Pt08wlkKSkxiWNMuzEiTZGeIO+WOaUVKLLCzbT4Kx1CS+tbJzoSBGvmnZbhZ1LruWU+ZSWjDnO97fyFiG6cigallhTM1ll9MpzEDLifhRmImxjNtmZS+zzB3ZK6TWeFdDqA9nNxE3qF5lWyjZVb3vzcpI1pIZLoX5iq71afPBjnzjhjEtojWQKEU/41j3spiEdN2zxrWuGRcu55Ga4nkNoWb8Ken+0LOMi4PKQ8rXHsV7rS2ZQWqbU7A+rZKc9NE9hl19y04jqlcFK2vwypDQe8oyTqZYk1rkfg2hvpDdRDwW9X9U6JO3ulof5OzG9GJHzmzENljPRlUshFTF2P92ugLtt1ZOSPC91XSaUyyGCVFIrXCphlBfx24iHmv3YfWwO9Pz1mzTLHORwjYq6Ymysh9CoQ2tfeeye8YRaVjevCIk5kBzkir48p1gQhRSAxykIdQPsJtI9wedvd7nrUHtEvKJyrFrGsKxCo5nGtYLvLVjWdKcviTF3sOWuavyBP8Pe4MknWYNof5UxFhbJOmndUJ2JWklf4EsZD4i3qos3UIoFnJ8y23f1XhwnhUjJegfbS3G33klSCkgakGJ9b9pWZMks5PQi6Vell1F3CAlqN/DrTOffRFOYI4FbcdRZ3cJ21ecvN2FKcvmzNq8AqQcTB6344K4/yZbo5dkb5CkspWmUO/GriI6oDzlHmNH/bVgJeeMKQivCrekjZtjWNJ/xg3xIkQHRCawF0hS2VBTqM9lV5HYop03f0UJwkCRzptXxnIcK1N5TEIIqSXW0hTqD9hVJA5OeFZbc+P63vcmjc8s2pk3Xosj0m35pm3Yq4SQemSYplCjrcTuIjGs6dcLVnDTyIXcr6N6FuoEx/PuNkayRwkh9cpSsv2hKdTT2F1Ek9nUmvLr3a1sY0ocgS44juWM7dmdhJB6Zn7ZvtEU6jPYXUTPmrbLXSKxBP6fyWRm99YI1iuwkc2wNwkhRIj3NIX6MnYViaJ1zBbzKWv6N/wfsaruUoP6aUHNRvYmIYTYvKAp1EwlSjSsafM6lfDkbMQ7d+bMH2OLtGa6UUIIqRfu0xTqm9lVJAgkjujIm3c5mcOKsaKDKnIRQki9c42mUN/OriJ+qJSiHxcjzB7HsTHsTUII6clZmkLN5PXEl/YJxlKlijTrSRNCSDCHagr1s+wq4kdHPrtqZ878qFiR7swZE9iLhBASzN6aQo0wLubDrUOQB7m9OTusPZ8dDW9s5Nt2FzFApayiLem8uR17mBBCwmkS+tnJtmV31R/jxo2Yuz1vftppGSd0WEZTh5X9R+fEpn/Kv8/ozJunyPZLkdPdW7N3CSEkmi00BPp3YYdnrcHuqk+k5XuitJwfdr/WOdEYKF87qjiRNv7GXiWEED2Gawj1z7I1yDaXbJawU4+SOkNNVV+Av6eMzfSTf19vi7jRqr8enf2cpSoJISQeywi9aW/UFf5O/T2I3VZ/dDYbqxcqWVnZNRzhbs+bU52/NWKkv29vGd2fPUkIIfFYWLYfhf46Ndqy7Lb6pN1q3Ni2rLOrTh1vNODvglWdM/MRIv26FPgh7EFCCInPHLJ9ElOo12W31aFFPdEYWPg3Z0yQwvtF4W/LOLXDMi4v/J03bw8S6mnNo5dmDxJCSPG8H1OoGVJTZ3TkjWvtilbmK1KcD5Gi/Kdsn3Xmja3a8+Z3TpgVPME9lvRMWN/sQUIIKY03Ywq1xS6rI0u6xdwkMO1nPvshLGmkEJ00PrOoLeqNG0phP14K+gGWte287EFCCCmdV2IK9WHssjoS6nzTk5rOYj+154zt2WOEEFJ+Xowp1Bezy+qD1ry5XhEVsG5ta25cv7MlMxzWeFsuu217rnHLQssbzUwZSggh8XkmplA/zC6rF2va2CeGQP8m2/Pq71c78ubBbfmmbTpz2bWQ4KTdMnfsyBv7d1rmNPYsIYTE44mYQv2RbH3YbemnLZdZTYru75pC/Wenld0CHt5SjI9Da7eMvTAdjgbrnD1KCCHF8XhMoUZjuE2dAK9u/cxjjZu5P5vJZObssDJ92YuEEFIaTxYh1Juw29JPoYSltJR1RLo9Z36DAh7sNUIIKT/PFiHUZpo6YMCAvgvJf+bkrdCdzrzxmrY1bRkHsMcIIaQyTC9CqHdPUwcMGbL4YsMGNezBW8FtTZsHa4v0RPO/UzKZedhrhBBSGWYUIdT7pa0Thg0e8J/lB/XL8HYorC3PHqtspWVwkEMIIRUkbgpRtLPS1glDBzecOXTwgJm8HcLzdvf09jZe5to0IYRUDjxgvy5CqO9JW0csP6TfJsOGDPjfwIELLljPN0S7ZY6PY023jcsswZ8RIYRUjsFFiDTaG2nriGWEmAtCDcu6ju+HPtJC/lZXpBEnzZ8QIYRUlk2KFOr/uvZxqGzHyja01jtj6JCGNyHWwi7/WXd05I3zYmQiu4Q/H0IIqTyHFCnUJ6rPH+V5fcla7ozlBw04WlnVx9fbjYB0nzFCsR7jT4cQQnqH04oU6m1k28Pn9Zp2KlpuYENWCfUf9XYjSAt5hqYl/bVT0pIQQkhlwXT1nrJNkm1mhDD/LNtTsrXLtppsA2CAyna6a5uOWu+QwYP7LwuhRqunUK2OvHmirjWNXN786RBCSGVBQY37lbiu43p9LdkgTuNka5JtR9k2lm1F2f4asK+n1X6eT0PHwKFs6JCGb5VVPaMuLOlmY3XteOl8dgf+fAghpPIs6rKCx8X87OKyjZbtUtk+U/uAWM+fls5xHMrQlhvUb0zab4b2vDldM6nJSP50CCGkd0Cqx59dYn2gbOvKNky25dS/a8i2oRLyfWSDhy+mvn8R3afET05b5wwd3P9mR6ilVf1imm+EDsts13QeO4g/G0II6V22FsU5kXnbTbKlKkHI8oP6tzlCjbbMgAErpvEGaG3JDNKb7m7amz8XQgipDrCeW2W7Q7b3ZPu1SLH+XLZ5U9Mpgwds4BZqaVXfmUprOm9er5Ee9Cr+TAghJDmMK8GyPj1F/TCH41A2S6wH9t8oVSJtZf/BhCaEEFJ7HFyCUL+Xpo6QVvTdabWqJ4/bcUENkX6dPwdCCEkeZ5Yg1KlyupLCvI9bqNEGDOi7UCqs6bx5ZYTj2BushkUIIclkWglC/Z80dcSyA/uv4xXq5Yf0v7jmRTpnjIqypuFkxp8CIYQkk7VKEOr709QRAweKuYcOHvCzV6yXG7hkzRYegZUcWQ0rb27OnwEhhCQXZCz7tEihfiJtnTFscMMbPazqwQ3n1er36cwbJ9VCrPTyDQ1LLTtgscH8ORJCiD8HFSnU01Mn1EMarvQKNYp1DBy4YM3FjXfmsmuFx0ob9yblXIcO6r+n7PuV+FMkhBB/kLXsQ1Gc1/dsaeoIpA/1CnVBrIc03F571rT5QYiH94xMJjNnIqzpwQMmLzuoYUP+DAkhJJw1ixDqr2WbL02dsMwSSyzqJ9QFsV6633o1JNJmqPOYZayTDJFumLD8oIZD+PMjhBA9Lo8p1MgBnroaxcMGNzzuK9SDGu6thfNvHTNqMSnU34cU2tg3Cee57OClNhs6uAG10WfnT48QQvTYvgirekDaOkFaePsFWdXLDW5YK/HWtGXcFuw8Zr6SiJmLhoYhKCk6dHC/5fizI4QQfVDO8veYQr186izqQQM2D5z+HjxgZpItwPbm7LDwspWZlat9jv37959HivTDyw/svxV/coQQEp9HYgr1qmnrAFh7QUJti3W/bZN67h1585lAkc6Z+UTMWAxueG/o4P5n8adGCCHFcURMoV43jZ0wdEjDm8FC3ZDInNgdeaM1JF76sUT06+CGm2TfPsafGSGEFE9TTKHeKI2dAIsvzKoeNqh/S9LOuT1vfpfkKW8p0Meh7/gTI4SQ0lg7plCncp1xuYENO4ZOfw8Z8MvgwQv1TZA1fV5wYhNzUtVFemA/q+CMN6j/2vyJEUJIaQyIKdQ7pLET+vfvv3CoRV1oDUYiLOmWxnWDRbrp7aqL9KCGLexUrAP25s+LEEJKB1nKvokh1I1p7QispUaIdSJCnTrzxmuBa9MTjRFV7cMBSw6vpRh0QgipFd6NIdRNae0EaTEfFmVVDx00YLuqWtOWuVtImtBLqtx/Kw0d3PCnbF+IlKWaJYSQajM9hlDvktZOWH5gww6RQl1FD/Cp442GsJjpavbdcksuuYjTR0OGLL4Yf1KEEFJeHosh1LultROWHdh/neh16sJadVWqPkmL+dJgL2/z6Gr12+DBSw4YOnjAO/ZApv+B/DkRQkj5uTOGUE9JayfAoQwlLqOEevnBDRN7+9xa8+Z6IVPeM6vYZ8g69oUS6av4UyKEkMpwdQyhTnXlIyk6T0ROfw9puL83z6l9wvYLdE40/xsk1O3NmaqEQKn83S+pJYE/l19kkQX4UyKEkMpwXgyhPirVQq2SdES2pRdZsrfOqSNvHB4SM/1clbpqdtlXn3Wt3fdv4s+IEEIqx4kxhPrQdFvU/bbVEeqhgwd09o41bSwVloGstcVcpbf7aPmGhqWWHzLgWZeD3bX8CRFCSGU5OIZQt6e5I/6fvesAk5s42+cKGGMb+9reStqV9rorprdgQujdcPatjY3b3dlgg3G7o5pueiCBkAok9JoQCCSEUEJNIQQMCfDTAgmBEGrAGBujf96RdKfVjqSRVru3653vefRg7va00mg073ztfWOx2LCWlLyRA6wL0lPd05X+qwef92X95Em/lpGzFyFvYcKECcs/HgQA6nmb+2C0aMqDPF51vilFu7vSs73asVbMOrKgbVD18bhExubZDJBW5bPF6yNMmDBh+bdlAYD64M19MJo1+TweoG5S42159qY/LJZ2LKO6W3nD0ab2onh1hAkTJqwwdkIAoN5+swdqVergzFM/kUdv+nYfPu8BhRoP5KRZMqD1ibrtxKsjTJgwYYWxRQGAum5zH4yGRKyFj/gE4e+YEvX3o0DMK+Td09U+vVBjgfB+iyb/X9a9a8qD4rURJkyYsMJZBydIv0eOweUwIM2a/BKfVy1fmgdv+lkPcpN3p0yZUpBn0KBUa02a/Bajj/z9YpL8FCZMmLBysHmcQP1cuQwIAJgz/P3vKL+3p7P9dE9vuiN9VCHuP5msqiWA/C9mbj4lnSBeGWHChAkrrB3LCdS/LhugTsR35Q1/q2osEcV3+oluEBB/qhD3jvshG5D3XDYmfycfGSpeGWHChAkrrM3iBOpry2lQ3DzK7Hyt1B2JN92VvssLqFd1tB+W73tuTMaamzX5P273inC4eF2ECRMmrPB2DCdQn1dWQK3JVxcq/L2qMz3XC6S7u9LP5Pt+oQrmRfbSpEorxasiTJgwYf1jMziBenE5DUqTppzIG/4G9WiO3vR679z09B3zCtKJ2OTmlPw/j6K5teI1ESZMmLDi96iPLqdBMTxMXqCW7w4N0p3pSzy96c703fm8T998vCZ/VlVVNVy8JsKECRNW/EC9T7kNDAHgV7iAOiW/H+b8fj3TNDfdOW3v/IF03W7kHr/yurfGpDxdvCLChAkT1r82mxOody23gSFe9en8XnVwqceervTbPrnpvBGLNCelvXxpUjV5oXg9hAkTJqz/bS4nUJcdZSSqnInH+TVn+PuFQCDdMX2mNwNZ+queuVPzUmXNI+dJ7udm8WoIEyZMWHHYAk6gbi3HwXEqRnl6oIk4V5j6xAXpGr+Qd8/C9HX5uJ9GTTqIA6T/Kl4LYcKECSseW8gJ1KlyHJxmVb4uQFHZjVzetE/PdL4qvXk8aZqXjsUqxWshrMA2uFGNzxKFi8KEsW0JJ1DL5QnUyqH8QO3fU81TQNbd2R552LkxKR/BR+ASP1i8EsIK+o5p0niyyf2gRZNPqigTPQFhwoIajx71BnLUlun4DPJi68ryRrW4a3X8kgMP3AIylT583uuWzG2ringhnMEVuteUpeJ1EFZIA7MfQJpscnvEaAgT5m6rOID6C3KMKdcBatLky7i96pR8v9t5urvaL/YNeXem74j02tX40Zxh+8fEqyCsYO9UokZtTilP0g1iUt5fjIgwYd52GgdQf06OUeU6QPWKMjZAnvprlk718bOPHNPTlf7CD6iXd7VFVrTXmJKO5LzmVxRl5LbiVRCWb2tIxieRzezF1tyrT9RtJ0ZFmDB/O58DqD8hR1kXeUA5irv6mxFCJt70Q77edFf6qkKDNA7IWorXQFh+N7u1rWRDeKWtnuP15nh8jBgZYcL47NscQP1x2QN1oOpv6R77367smH4IB0h/tmreYdtEs6ngq+6m16pKS8QrICxPNrhJlY4hAH2N6NEXJiw3+wEHUH9IjmHlPEhNSekAXvDDUTN8eHWvN92ZftO30rsrfU001ynvH2BD8X0x/YVFbS2JylhLSj63OSW/zeiMEEVjwoSFsOs5gPojcmxd7gPVpMlv8YJgvGoMlQU9d9m8b3N40xuWdk6NFXQzocn/J6a+sMjejcrKbRCdIfPqPuIxf8FqXUSLoBgpYcLC2R0cQP0pObYp94FqUuVzeIFQqhnzx/QhU/a4YGWH7l/p3b4612tr1OQdgxS8perqZDH1heVqqhpL4L0gQPyeB7/A30WxojBhudl9FaLqm8vq43HJT22q16OuGbNxxqH7fOkH1MSb3jRlypScSB5QlU6uaxO/Ny1ITYTlZAPAIkYA+F4ynzb4kACdST4/RAyZMGG52UMVoo+a36tOKX/hAcO66jH6Yfvsql+wshNg7JGbnnFlLtfTnKxNksXwE/7iMfk68RSFhTHQezalpBPIfHuDI7XyeUtKbhejJkxYNPZ0BR8zWY0YKsqkdDkPIKpSrT6pJaWfsmimvnrJ7AxwPqWPz/u/YCsLey3g5CYL4ocB8tK/F09QWPA5Hz8YPPbQXedMrdzN4hIQJkxYeHuOA6g3kSMuhsogbOAFRnjVsw7fV79wVZ9XDeDG0UM5vdPH5OLdBOntpuQS8bgknqAwHquvqNiiSY23EXB+OMgca9akM8TolckEIf8ZJEaiYPZKBZ8oR0IMlWHNKeUZvwWrFQVltZX67tuP0885aZ4B0MfN1FcsmK4vnXOUfuqimR/ndA2avDbQApqo2008OWG+G1GqwS59H1XageZXSn6qMRlrFiNYJlZTU7M11FTESBTEBpDj7QohczkgEEgm451cAh1JSU8pdfrxs46gYL36hGP1rvQh+pyp++tnLDl2UXiQVm4XXo6wqCNFQUh9Mpj4UsqPxAiWoTWpyrR6WS5L/WMzolAo25IcH3ACddNmO+ajR49ISVJ9kM/zLGCt9Qk9VjVabztwLxr+PnfZfH3aQVP0Yw7/1sOFAukmTfmVWFGEudhQ9D43a/JfwwB0iyb/ozkp7SWGsWyBWj6sMSEdWK472wKqyaDl6jNOoG7djId9UIuqzAajEj9gys9ztmnp++6xvX7+8gX6mhUd+hH77q7vMrF1WpiLbEnJpwcDafktsZoIy15fpQlgCAPQhgJoo2DsplgsNkyMZhkbyBvIRLi2LO89FquEukwySb3dfFsdOb7iBOpxm/O4I5wdZM4REFzEs6Bpckyf0KSBIlS/9JRF+uHf2k0fPXJ4YKBuUeXjAy6kmyAlKFYTYX3rqnQQmRe/DQvORi5a+RJc8mI0hcEGo+0ElIjlePOUxF5V9i3AV2mcII1jwuY85qlUTTUYu3hDeZQykUGVyCB80BN11fr8tgP1K05fvG6vnSZ8Hq8eEyg/Ta5pStAFtVGV9xTLiDBU+pvCGH/IBaCNULfyYEtKHidGVZgdrF4mnuWr5XjvtFeXeFAF+KqxAYB64mY/51Lyw9Bm5v18QzJ+OU/1d23ltnr7wXvr5yyds7opGX+yIRE/nXuhDaCF3RvyVuNtYgUpb2uS5bomVbnQjzksQEHiGjGqwrIXTVVegQlSli+ZKp9KQOOSAnzVDsKj7rNGNT7R8EbjXJsS6Dg3JKUvUTTmqfccr9H32XW7D46YsktSrq16l4D3CXznr9iSbBxeCuRJa/JxYvUoX4PHi1oGMm/WRQPQ8jtCTEOYq0mSNLpcd3KUaEBTfleAr9ojAFCXRciLVrJq8gc8n+085JBhE5tT6xHabvWp/m5I1r2kSTXjzTk9g8/D9+/XdtCDniJWjvI0TZMamjT5x1GAsw2k70SKR4yuMJ+FSn6NhvLKbLIgbEWA+vVGSco3G9j+AYC6pTw2SdJKY5HyL5j59mmLH0HrFVqwWur9KrDjnzSo8VN5RTFonYLolRbmY5QpT5Mu5xWL4dzw/ZdsWE8SoyuMD6jRQkAnj3xu+d27/AXZIc/L89ccGQCoG8ti4VOqNdObeNnrc91dM04Eh/dpx8+iVd0Ib/swN/2PgOk9Rnha2cNzs8BZUd53bumnYrUoLzP1n6+I0oM2yUv+UgAHQdhmtWhqdd8yG+s/LEOgXkcW9tvy/DUzAwC1Wj5jrzxheBZSB+v3nZ3bD+npSn8F/u6Lurt0y6turfcMI35lCWigj9UDpHcI5v0o3xErhbeh37c5Ht8s1N+MbgPlLLLx+2f0IC2tErNFWPBJmahRy7VIhob9NfnzPH9NBydIQ5SjrlzGHq1x1ryTJGmrLG+6M/19Swnr7BPn6CsXTNfrE3W0Z9qvsAwtYB4eyyDy+/8EyCE+IFYJjnUkKR0ANrmSvw9NnpsfgFb+0pCItYiZIiwXz/IlS99UVavLRmqxSZVvwX0rysht8/g1J3IC9ZfkqCyzjdKr5rz7uf3nq7ra93FqSq9Z2aFP3W9PvRa5ao4qWnKawcwNgiY/HQCkfylWB18b0KxJq+uT8V1Kew2UjiLz8f6oARprKplHJ1cE5LoXJow1SdfYyCNuKJv7VuXlJg3kDnn8mpM5gfoTcgwvsw3ieda8k2PVl1k/71k44xU7SEOu8ozFs/Vzl83Td5rQrMu1lZ5eNYgnXOb5GQFA+mWxMnA9wyubUtIJpXr9qbo6GfUHkQO0wTD2JCrFxSwRFom1JGKTMyZYsjZZJkC9nwHU0sw8fs05nED9drntukFja825hmRcb0hIU1d0tB15ztK5ek9XpkeNXPWFKzv1rvShlNu7SZU8OZKzoidJ+fAgcoJQmBMrgy9I/xlRqVK8dqo1npIvJo7J+ugBWn6fHHPEDBEW/Utny8uQF/CP5XDPmhZTTNq+6/P4NZdwAnVZenBkrr3Q61XXVunpQ7+pX9KzUHeGvnFAb/r8FQv0b+4ySY9Xj/HwqrM7GPgXZHljMjlqlFgRfJ/bowWo78iLNSXie+cjD22Guu8DP4WYIcLy9OL1hb/NatzFZbLgfJ3nBedqTqB+oSyjOVr8YIsGtCERp2C9YNpB+qUnL8oCanjVhredfn9cY/JNFJYxPZqkcmzGwmzQPHKEu5V/g07U55LLOtdo8rW/YzIaltRYNKl1Tag7yEuYW1PeKFc1QmEFtN42LZuCSzn0+iF8Z5Jv5KuH+aecQP1s2c69RPxtPIOxxEMGA5lKAHjxrCOoZCXAOcOrPm6mvnrJ7J123q61VSafZVN89vVQo9KW3xuSur2uEyC+OVQ2hwa6pHQANrUYq1LTsrfokvPjRUuXF1jjXlg575QZuZZ/kl8N2ayBWlW+YzIFLc/TV9zBCdR/Kte5pyl13chRI5Q9tiGhKwSAQW6yYv402kNtB2sC1H+x/o587gyW9CTmsnMj5tfORYktVGmBR8TpDChskX8OLMuIW0q+pHcjlIw1l9Lmore7IPpc9C9KaSyEbT7e5aOMyfjdzdpLMBmqoCGbp6/4FSdQP12u827+0QecVq/U0YIyi7dbqq3UxzWqFKRR7W2BdXdneo/MOavc7gxBWr9DqyGfEpZ8GCIqxFv8Cev6ID24ub8Hbgbt9iZN+VUfTas8txSuGwQsTZp0QX48aOUjMDoKxBDWL9aSktvZE9OfN7lUrUGVv2EC9bo8fcVDAqjdbfXSOaMuPXnh+v322IFKVVoFYgiD15kFY2csma2vWbGAeNMzzmZ7e33tNeiFtW08z/NnHTOY0chnLwUg2c+Lym+jglf5YbmuB6Bl7fOk5emlsfmWZqLeIC9etCr9IM+8C8KEeZsp+fcFIzT4BX63Od5zfW1tFS0oQ97Nv5AojD0lgNrdiId873nL5usnHjtVr0/ECRjEMxSxQBv6jR3Ho4/6WZ9o0JXOCJAfA5ldCQvV5+S4u3exN2gk1xMP8q2yjK6ZHAM2T/qqor/meHwMuc7L8hTmfrVRkw4SKCGsOHbRmvw9l7aVWzfbRUlT3jQ3JNfk4fTPcgL140Xx/FVlX3uON78g3X6wlXu+YGWH/o2dJmR41Xat6fGN6i/8vCh7twLC2Z6LryMfbef0rk/UbWfOh7VluAQMRKi/5EBak2bYvf9ovWh5hUAGYUVlzupvxws7b3O8ZzBZmfnN9XmQ+3yplIAarU1kPNKF+K6erunPW8xjCG3PPeoAXaqtwjzLmntoxUrUVa/wAOoLTCnKo8xnejPvwtuoynvS+Z2U909JUr3pQX1a4UJDmvG3RmfE0M3i3U/EWrA5ceRjHyzqiFg8LuWNWUyTf+kl7iJMWL8ZgMpr8hbK2yroPduLZVRpZcSn/0cpATVEWsgC9deKPFc3E3A+00lmQr3qHYlXXbUtzVGzC7+kY5jXnVJ+RBdXJbY9BeqU/D6zdSspH5EVRUjJp1v0uRY/M5ireKIPZIPwbfLPQaW/WY0f4tRbdqNiLZprTslzrHaxqIvFEJERaCCsqA1MXR6N/fdudh61rfUk4nAnPK3/cAL1w0Xz/FPyxqaU9LN8nX/5/KkJFpnJ+csX6IuPOYJ6z41JyW3+rWdtFi1BhQqqjiWNZ7VtudE6OkkweFSOUA2NudKUqtu99Deq8kKWsEmxbsopP7cmX5oPL5pu+BKVMYECwore0BtYTpqqqGbNyIlGRyEJcoxPOIG6aOQUrTqFvHnTXe23sShCcVy0qkvfa6cJes2YUa5eNQp7GED9tnXN2Ew6/wZ5Z9a1gKgic27Hv8k5RvdhnErfkzaK8Bw0mJ8Vq4oeohjo0MgDSP8NKRCx+gsrsRdYecJrYm9OLQpWXjIPGxF4JOs5gfq+YhkPKP6Y/cWnRX3uVfPbdnIDaRznLZ+vd04/mDKUNXoKb0hr7JELE8Bfswt9mJ7hSyZRiUs0pS+/2aQpJ3K9G6q8HGHi0o+cSZczN+KJ+N7Fdq3QLIeIRvQALW80N1xChlJYSe60l/lw2z6xWd1vpijJBxGdNsEJ0jjuKrLxoB4qFshIgbor/R8voKZedXeXfug3d9XjNZWei2y9UttqjwBBNYtsLk610eA+U+GRP7Z7kyBO4bl+i5LUySdegu/3H9k86fHOYri+Jlmu6414afF98iOiIb8oZCiFlbSpaizBMdHP3YwiCA6Gq0gqn5sDAPVPi2k8iGd6nAl2kZF9dHelZ/uBNJWzXNWlH3vkfjOlmsp/+/S2vk0XdVWaYLVXked4B8PjZjxv6fsZeWlV/obf9aPADGFhfEepznMAIIuBsFi06BtT0pGg5mxRldmIlNjrRyKu6F4mVnlhm4Whd9p3wsfjYzaLe9XkkxyLVhSL8aQAQF1UFJUolrLGIkJv+n9+QI3j/GXz6eZAqq08y2/+AWAhEGGC823QkrbYxjyiBRc7w5+atu1Ijs3c6/nM3RfABoDAxaX1sl+JXYw+aOUZE0T/TNuuXDYUuRGXKM/kidhImLD+MStX6bMz3Sy0q1G96xR/r8hdkGTXAEB9VtGNibmoo0c5Am/6Rh6QxrF68by6vg2U8qzP/Put5XUhb0wW/Ht8NmTfY5zjOV8gscBdVfYtxfmN9AC5z+ddNJQ/gzZ7vwC0Kq+w18OQa3yACqC4tNflVNGtyueIVV3YZmnkhfl1OYTA0ZLBWMBzDX/vHQCoi07/2x4ezqVVZ9ncdpkXpAmgfzvjuXClYNi0oNn349bS4826Rzz0JTwymEVsQ1B34U5kxFdEFy1AK4eCttXxvr2CjVde2q6S8v5iNRe2+QK1Js3geRFKTZ+WYYPIzv49B/FBrhrR+wcA6iOL8NmPt43F9aG96c703XwgPeP1tra2QQyAvTrXBblJk3/skeu+xNUTNVnLSrV40oiKyS963PuvCxqlScT3Jp7tLU6ZUTP3/0kectF/wjwWK7mwzd0GkxfoYw7S+tdK3qvW5J9n3VsiNjmHUx4aAKi3L86NmhEuNduRArOVdXdMP5DXm+7pnN7mcR0v8yzMIMNg/O2VPov5yezvjDfa0iBRMrUNRGEaCjZRCNeQlHbGhgBtZI2asgdazFBdbrZADs7hewb5qUhVFI5VDddyJouIxmAXkzfmgWHswYrNgDVOmDDOMFWmko77i8HW8y2d+5Q6skOphlBDSDuKE6TRaz2iGMeEAMn8XMQZerrS7/F6017nsQrGfObf0wyQ/o1/7lKa7/w72rerKetptKi2tirofeNvKPiq0hJsFOC5mpzyfyP//hfP5hdeJgGbd8ln/04LraCLrcl3IQIAqlvQqYKbvz4Z34UA3ThsLADwaFsziUFe9iEuOqFQUTlL+Maxuf8U95cPkG5SlQvFyi2srAwi7Nai5VuFm4xPKtX7bFCqNcaO/685nDLNCdR/K9YxcZLBmCIUXLaqa/pUbm96QdqXEQyFR0FUjrBx5Jmz8GAZAP+cseDH27jAKFmbxGcJMF9BK88ZcrHFdDSllL8UZN1Q5evceBiwieJdVwIWjZ0mVm1h5elVc3gm5i75f6XMlYuCFkbryg4hT3csJ1DfWSpjAr1fnr9ZMWu/rYk3/RlnAdntvNfixqZlCG7EmvsiAZl5UI/5irB2BisVgNa814Wsa0CFNGhnae5ck39vtW3110HJQDT5PlyvUUUtb/JNEeSZx5vyh1NvmbWhkpbA4yXX/GHk42H0XwsTVp6GFyBAAcejJQzUVzPoKu8JeboOTqA+v5jHpElTltqeLURGfPN+3V3tP+bypLvS+smd6eZcN1MIJVeYeWR0IQSYqzdlgrTyQ2eYHxtPtO+R7zgL4fV+BWUy/ugzRnEfZGedhVLkGn/n703nT3AFeXf0s7urUkkTTDnNr6PNR8ufNyelvcRKLUx41c6qaM8wpLSkFO8R4UumByJJ9SFOdzwnUM8s5jExUh99Eoh+/ahLZh44ghekTztu5m2h5qKDUtLq50d7VpAFvjEhHWjzAq+yF5dRIEzJD+el0IkfmD8Aax42SwBliIiwxsOkNt3AI+FYkVuBmtf60OM6Vpr8c/KRoSAyycMYPY/Ug1ihhQmjL6J0RqAXqARfHlqI473xGGDKIPJUAS/lBOpvFP2zt4lXIK/oxeRFAPh6ztz0FycvmRu4UAupCGcxFkACBVwBq4LftcLefb3S8odk4T/Pq6UprwctHpP/iBA/Ws2wSfKNdiVik8kG5b98+Vu+nHtwLzqTgtcGol9hPG1g/nHEYf/7GZc0UKzWwsrW0FISpPiDvESPlNo9AoDs3qPTYyOL5+EmUxeP2s5KTqAu+j5P9L86gZF5wx3pvbi8aVCFrlhwBf6meuRI9OAP5bkOVGMzns3X5LgG1dEBPTGacrB4zXvVlArvNT+G8TQLMYcGei6p+DeDiFBEvoFLKse6hbGhXNak1jX1big86gtCjZsq79c7DmRTA353pOiSyYotxWotrLy9agK+ARmBDi+9yEF2DpTeiyzX0RCkqhzKearTOIFaLvYxQU+vYxH+M+tzq7rSa3krvdcsnatRoN522wkVnHSt2CSxgDrMQg/PyymLWYDCr/+R610LAQy0heVC3QlVqSAbiyg5rrFh8iSRMbjyB9miceMj4ur+EmH0xqR8BPLdYJszW99+A4Y1u+qWMGHlC9SqtDigt/B1qWlXwztzWWT/5afK5LALOED6o6BeVP+NS2aREAqs7L9f0dm+My9In3nC7NPNP+PWAbYkJvnnnvIeq3+Xglaibjvn5iOPHvMrtJdak6Ymk6NGRfEsDJAO0rIkrfQ7Z01NzdY8HRvw4i0ZVJf3ZA7jnbo7orF8h1bap+R/0sI6Vb4uh64MYcI2T8PLTF6QdQG9iItL6R7Jiz/Xo7r0pACnupIDqP9QKuPSqEo7Ocbi9/bf93S1v8QD0qs60nalJgA1V3GTpa7EAdBvgjoSoV6W7jK8MDM69K/oc8zy5wQ8HkL1OKQU80FfidawgNf0odf5UCiJSAXA1+964bV6jPvr9uK83vOnaqoj65fW5P+DcEdTSlpVKhtcYcL6C8iuCviCbUCorGTuL1GjengmxwQ41bUcQH19aT175Vf28agdPZqGU89btuB4Xm96Zee05db5Ro+uGKGq1TUc3vx4f05n+comVZlmRH4MNj0nhWaTKp9tgnRE6kzyRgLKT2IzSs59WL5lX0EzGvQaQUvq7h1LJ/T1yEvf9vjqAdiYeanouVWk47y5edHKeoTSyRwA05+gBBUmjGuxVqUJIUJW15TSPbqRWJD7eDzAaW7jAOqSYVFqTtTthsIn+3jUVY85Dr87f8WC1zlbsj5eOueI3vCvXFMzDmFojs3hj10W8Y9BnckItf7SHvkxPicvM0H61yHDri+T89xr9FrLp8N7LCS5j0kL+lWgkLcL7SvlGbeNqRvfOQya306lK0ZfNtO7rR89ekTolisjrL3Qa4xp3QhC8apyKCraEW3Af7FpAr0q1iqeynlhwjZLC8MqlExW1ZYOUPdJPOZAk/orDqA+uujHgnhxIH2xezhmdEFPJWIPH3/MEYvOPWkenzfdlc6QDkXlLoDAc64xJEhtlb/LmddshHHvAYiQRf9apGxMAF/Lk9uG99iUUn6EECsqihFl6c9nEKb/GPUhvl65przrNf4UKL3TWpf4bC5mI5cMpjiw2qHS3kwLMEhr5D+TZ7aaRwinORnvND7PsXHRlI9QBIuoB9nUHeLVWihM2GZlzar0g8AcvJqylPf84JTOdxjR5/46PBZyXsrLhzmAemKxPmODJrOvP5Z6OZo0HlEF8/91JVatzz5yP/2ClR0Gy5hXbrpr+jsMzzcNUQnPZ2Hr4WaFsRk2lMX5bC8SRJ4aEpCNanwWdKYRAoYXBg+soshynxAkcRK8hJH8xDuV0SKlyd+zNjAMG+T3jqOtze/a0SpF0xZa/GAUopoFiX+jG6mU/DCYAI2fZ0dFXGwwoiU5htI/xnVgk2e2eIlct7DiNni5YVoaDJ3bwC/Iv/mBUjkUzFD9FjFQlX0974cv5PlHH5BeR46iy903adJMiJE4PKenbF5wL/uXUletbz+uUT9jyWz9tOOP8VPIOjH7u1CcJI/zfBYujF0eG4wjDMKdeKfNw/6uPYRdUpviECANGlXHM73A9h7e4Lsx8OpJh3a0rYfZaaimN0LQ8i32qnva745COwBkSDKkwKQ2nOsS8ugolhSIIKwoDfq9VPFHk1YHX0CUJ0PIz03jBWrIAvbj0Azyokwl997FcY4XfID6r0U0FQYAgKFqxFjIzrJ/UJKk0RZdJbxqubZK75h2sL5mRUdQGcuB0Cj2UuRy45hH36zr35h83JBXNMO38+zSigCikgFpTb4zRMj7t31/r/RYmuJIA1CFLwKSVBpTk08CoJsh6SvhYcOLpvKT7qHuf9m9X9oFkpT2whwxw8v/sjGSvUw9ZrJhMiMVUdiQ6AoBXchnUvLFpawCKGwztcZYrNJoZfHeabPCliEIH57i2jkn6raj+WCDrrN/gMtrQTC4i/3sdR+gvrUonr8an0Xu9VW2GpG0gBlRkWK3tdYn9NZ6Ra+tGq0fsveu+sU9Xa7h71Vd6X2zNompmmpTjWuIhzf5dpDiRORbe3ul43EpK/LDkf8smsiGKp8T4v16xHp/7O1stF1Nk39CBT1yozj9CBsB5P+pop69VgX9zaq8It8bIStiUoD+918isiYQQljRGKVmNHoUn+NeSCortwnDCsXDxgTJwhB9y9F5Mi46uhlsWN7hb/QGv+cD1Of2KxCkpBPcoiLwhrxAjWzs2onXoQOs65U6VBfrK+ZP089eOpdV6f0a8xlr8o4o2nMHqvjRQYuYrA0H9KBpiNUWFQlSI9Hf5sY57wcsjaq8p5OqM3KlKrfedUTmVKmjISntnO+CLWwgC0jx+gdEDBB2F0ghrEhCbeSFI54kL18u2WE/G3zixw/xO6/FQuW1kOdtx87J+gSREo/TjCDHpz5A3S8KY2hb8SIPMYvlPElIOtsPOkGTY7TyG2BdM2Zb/ZBv7qpfuKoz25vuTM9lAnFSPhwbIo+IzVr3FIp8Kvtv4odAAtLZldAf8ygHG+jF/OWWZ6Vh5nyQuISnS33E6Gf3rkHIYa3qKTj9K/rlBU2psOIAa3ARy18hf+3vebpXR3sAnG8+vA+olTf64f7X8dIZVrhTYKIVbYMPUB9T0Psy8v5/9q4hYAOg3U5qa9vqvGXzP9598lhdqq3UW8nfqVKtPr5RpcCMwrLe3HRn+jn3DZF8HECV9TuExX0oMV3HDsQb9jwrwr6l9P6hmj0UB3aRALQLyL0K7W/0PEe66USqQ1PeLayIirKe8osn4rsKtBDW32D9Ek+O2KlVzAlwv+EFarooF7CHFcQPmW0cyg1e9+KhU61V+LdmHViQCAHaclLyrRyLPU+BXMWqzumXXNTdqU8/eIoeqxqttxCP2ioqWzDt4IxWrVVd7ft4AZJJlsH63amerUHJWDPr78BylsHvTRZxkG6U0Ks3FFXVxQy6EYSSX2jS5EUoSowkTQBSFURR+kWWVP55lGInwoQFBy0zf8ni780Mf8s/CShP998Kn97F3hx1AfPUjWp8omNBubbC7Ml1vxepw+V04ziAuiGvnlll5TYG4Yc/zzIWTp5z9sydqlFRjRPn6CsWTOvNUeO/Uk2lvscO43XibeunLpoJsH7XJxqDnOYPGL9CZe//PBbHf7iDtPxOhvhGPC6V0jvH+y4VuwcdQEnszqi8bOTGw1TJR6Tq9aTfOilMWD49zOeM1g73lwm5xsD8wy4eUd/3xhttofJ7CnOvmb2jaDsxNyzPeLVzuJxuRx+QRh9w3niLDZ3gTJ7rXMLdlnV3pc8AUJ9CgBhsZHsSYEb42zyPLseq9IXpQ/U1KxboxPOe67MR/CEKn7KvPd7p45HdmO2B1zVl8Xpzbj6KxdzYx1AYl6EIpkqLwX8ASlQUgG4mXvbNUeWyQVxjtej1w338ppQ6C4RtRmaR8btVzRqh1fCi7yxDSNlOsJBvMXj6cjukCXvvX5WP97wXNnnDXj5A/WRe7iMpHWAoR3ETY5we4PQDiZf8gZV/RuHYYfvsptdWbqsbrVoJcH/re+44Xr+4u8s3L0y5nFXlQsbm8FFv71+amXHPmjzX6WGCqrL0NsXKmR4A8FdUwbN4qxFJQCcFNpZgY0PEweG5foqxRirHB2TuopSpyJGjclxTrjfbsB6n6YQChOTBpY6K92g87PikZlX5jtXzX+BowVNoIxPoIazQnvULZqh3sVeYnNujTklHer5kSrXm8G6n5PH2hmQVpGjy93o3DVSmT97ksbicxTjnwT5AfW2UN2CILPSxT3Hu/gOBGQHp8+3V3PCojz/mCB3V341JyeJB1xtVSZ935AG7csypmwBOGT+Lx8d4hXVRD2Ft2uhzMRbiLCUn/D7fm7tczczRDux7h7LFQqhMp5H6Geh1rl42sJTyF5vi1BPoa6apBPJfz3C5bb67GbS0DRGMut2Rm7X3VkfslX4NxrqoIk64ZnLO86yxKbCH/VsnlaswYfne8T/h9lJ7ajizw62HeYdua5MOnvAT8xYxUJWLnNfnVHQi9/47L7YmxmnbfYD65OiiAdLKoAV9uOcg39HZecgwZ9sVwt/nL1+gf2PHCdSTtrxq9FRrUmwGx3y63cnHDQ/bZ97cYsw35USWhwfP0/CmpJ395liBbSDmFDxWgBwWcJNMhoIRLcq0A6kmf453yjNUTjxPbLbsm0wjVSW3Oz46NIc2wwrGu35VL0tZMt5ZVVU1nAp9EC/clTgnnHf99wgZzYzonyrt5KbElufjbwElcoUJy8mzXstqsYJ3EAQssCv3DH2D2tTmxYKlKY/39IFjsV+bvTh5a+oiAuD4kwU+QD0j5+tW5f288ucehS8/DPpdxJs+jkFkol+4skM/dup+erymMnM81Phb/uOOsKrS44hsfMTilrbCuQiLO6U27aIh8Cyt5wVClf56T3AdoOlsVqUl5J4etF3jJoApvN8KW686rrXv+Ug/dSPTwTxD6D/DozUB2qALjTeiPc2s9B+HfCnCyV45VTPyMMD3fUzJF9vy/z92i1ggWoY6gozq+xwOc6wiNYPPXD4PAFrw3nJNOqrYoz3CSt8G9/biavJ9Dg/pDt4Ji7yad5itqtbuYaDYJB83Q3a587O9Tfl4BpinA/b1nuQD1HuE9wriE8PwrJsL7GVhvMGejvQ6FjXo6Ytn0WPy2AY9KdU4QSDts0F6FOxofRsPAmpsfvgL/drLEALPmDu2/y/ku2EojmVXHtPqZhcPH5zk5P42UmlNtgc5gJ6XLPIetQYb7UVnIcO0m+CdU/lIVfoBJC5RRAo+cGsTDlIVP1B3vjeW2lpO16ZKV+Rto44Nryb/ocAh8XfArY9NlYAUYfmyoeQlfsvaWVeY+TNUGnNOUl/1IqqSo8mf2xaiF/PykjKYnJDvzd44jBrlVZSC/KLjT06viLg1i0p/Qq83/OJwdZgx6ulqv9xLFQt90/vtsT3l/Ebouy9qovzFe+yVZ+ztbWxBEPkr9Kmaff0byGdep/SgtMcdog/KHWCSc4DDMpe2r8iNkqskpSk04pIxX+mcuB9AhTY5pnes1X2LcuyTDSlrA0VD5UhrOFjKaOW3wSD4qkEkorxBF35N/g9YBemB/0cY2qUAjPJ1p+RfwNvHuONZoYCSngP0sey/eTwsj7dZiX1fjuB2Xj6fpSnr+kSBPey3kQ5hROSECYvAE6U830Y7E15gurCAeIBvcl7CEzp0sEt9FbU+NYsvGIugh3fwG88QXWOs0vbxiyq85S0DkXBQ8MmhdzaMOhqsu7NtpBdI4zh/xQJ9ftuBVJsaxCcZYxLLGBPnPb1iSZmi4MclAnAVfVaG+tMJ1ibOi8TE2ERmVLMPjXruALAM1alMhTWjXoBsHtT4LHdAiDXbQvm/xCYw4/pBrZqSH3bMy9dBSGOGxAcGiBhNcNZTQEHLc64l4rtiA2F7Bm+B+yDDGzQKKAcEHTfcO23LK/BmM3DESpPvLnzhmXSbIE8pUaM7PE26HMUz2JX6hYz7AazfNBeSO/Di2vNxrvlc4kn4nZsWqDhzxxFT9rF6Lcl3PuABAIu87qs1pZxg+/jVHkD9D95FjsoSpuSnclkA0G4Tdox6Otsv8wPq0447Rj/zhDn6bpPH6om6amcb3ime0QxVmW2C9jWsa6dFVmZfdYUP/zgFUMg3GoveeDOcvhgSjlERn0CmFdXqjhw6xGxocWBTIr63WaiXReiDFipLMAPvjb19h25MaT7baIW0RZJu9UshuNgQGtJNSnuhzQodAX7vHa2it+WhzYruBxE1wLuO+8roVcd92zS/A61ribrdALohw+AF4cinnPhkXhZC1CRzMyX9VFSKl5ixeGapnBxZGDDZ+/v64A1YoTmymfgV5W9Gvs19R7yuwoeVzAopOlumLH3hKIzq6DJaruARuS7SLl5fL1DXJx6xffxGD6B+1u/6KMsWo10neE46s+c4EEibLGR+xykLZ+pnnzTn3r12nXikRX7ieN5uG6UPGzVlD9Y8N//2ZOt3iN5wRh4eRQja+Ld0BquCP2RY9AgnIY6zNQ+1DQjRVzBkO+n7akVEMiVSBxPw7rb3OBuhffnqsOFQbG4cRCh/o4Cfkuew0jrmhvBoZ581AfqHXLz0+YiG2CVHGzXpIBrm1+R5RgeI3I7IAIpG0cHB6v82NjY1KtjzQoD14sI5S/FGPyrhPIXFfx1VT7mwAgM1YzF7xSr8QOtBf1wjJVswQ4Bm/my9x/Uu4zxtloJQEAYtf29a6nYpCvNsB/GqsiYetZ0y814PoH7U4yuGAmD8yCk4OIg/y7UdpLsz/XseoD6VeNSnHn/MUdQzrKten13hL53A9PgIINHqW5faBmPDEkvQc5BFn/d9MXKvhueaq565WQz1GIuYwz5XyHd+FxtUJ+MeaCXtRWAWwQveGbSm2WskAOS49lzfY0Rh/Hp77TrjKNRiUWI6C52g7Q1ABggDxIPSBlO5yJTyQ7zH2EDa5W4ND1u5PVA1eIEpOymhjCZfVWj6VhRGipB4iQM1i/AeRReFVnYxSQU+8OmLfC9g2P/1XNuK3IE6W3HHVMPyviayKXL3qBV9nKpaqYlHPYD6F67hwCj6UAHSOQqZrJrX1sQD0hZQH3dc23D8nVxbdTNjXF9iRjRS8vtI57Aq2K3IBi220uSv+QDKYJezeMKhFhbag6aV9eyUg7On38onW61hNs/zGFbBIe7N5dltoJ6qpjyLvn3UFVg0tkHMCv9ztOk9w7xHTf5973uSqIwZ9RFeFec59Uq/Qe5zjRWFoPnxAPSfUM8qeDoyWZv0WgfyB9juaSRh/WyYiKHDLsghkZ0+vO1ChMlNvmUPTzCLiMHPm3nZcT/3RfKiqfJ+Lpuca/3v0XWRpcekZs0Kz//VA6ivY2wAOqLq08zVi6Rh7670C7xAfcrCGb05cKmqqp65oCbjk+znN2sQXmH1sVrMYthseFHXMubL8yEiN5nvG+1TNgg9GIVtb9k9e3jUFtA5PWlnqxkthtTku+xFWkHIMpAfDuJBUkazcMValEcdOVKDQtRf0MUFgN9EKozSxNKiO/l8FPjRFAABHBo1giiLptyL6njk0O3sgyic42lBpFGZfgoP0z55Tb6U3MMnhaQmLTIiH2GOPMkh5CG9lvPuNSX9FG0I6DXNTxhcamApH/m16rgsNmudpA7RjCU7xGavhkVVMYuUwKmw5Twmtmg/Nj/6mgdQf8cB/j+KKqcVxfj0dLav5gVpAugfM54by6t+PjvEn6l05ZQ1tTi/KziqnO3MeHi+zt9LkrSV7zlS0gluVLFkbP+paduOZIWXnZXtdvISOy1mRP23z/nR71qbiBDnRhRoMMA1TJsRNrooDgy7UUQxGzZwjlRTF0ekbr2fyE8+Dc/f3mteoD7sawQqFq8NBO8vinAikGX7klaYYtdMdv9RUvWZWtIb7F5eKEB15INRcVrBKNQJHvbOFC2wyB7sFfV4+ZqV2PYuQP+Gh0eNzQSqk1/3AOoLrHO11idviSYsFk0l7IpZ+23NC9IUqDvTWcV3YLFyWcznOAD9g2yBk94q4gFm1bFv4V0Gx3lmoZbBHZ6U9kKo3T3Cohzq1T+LKm+rhcrkfb/TKpRjKT6h5aoAC/Xz6L+t8OgeMPLJgcH2A85o3T9oHQABZjNaNzhfix5lPVSlDq/3Dq2c/QnWMNRTmF0GrxRM11tVpglYLFJDH2kUFcGMB/8nujOMIEwO6kI7WUmYClZn/ozuWF2oFRk2gNU7a24iGAuPkqWdjDAnqx2uWZO+7zaGE5q1DXVVVagyXusB1BSMJo9tuNPZdxwivfF5lCo93Z3tNwcB6hMXpGt4oiG2jZYVmZjFYiBz/t4vB+n03hHxsP16EAq2PDy8IaxCKrd0i8Fg1deehA1J1rup1LY6pSdpEZVL9CASDmkvCVpNWRqlWIZRqBeH4Mygflj6hiJs7ko8pMmfWW15/R4BJRvOqChU/dsv3TtVhBXDZKCeQF9eLuIiDzBA3YWckmPx4w8JqfKeQaQtGZ7v77MnZV1TgPH5jrMYx6jOZRYI/So7fIiWleweVoNRyiX03azpSl0VvNs/ugH1lkOGzJ3YqPXYWbzCSgK6SGyGslUd7bMCedNd6avcFyppLxc60GkoumKQPaxxPKdPEW72OP8U59yHh2uFThHqRm+/W1Elqp79Cvds/eeDMvLWmvyhs+XLaN/KJMnA84FXa6VSKPMVzc8qNyD/6iRLyTXt4dYnHUYvPoOaFAxrAJ4I51pu6bWYYuSws1OByFk7mer60QZR8hpGKijyg2woBR1psQO20S+6Ic9FDI+gQCcohSAlgLB7PObCxQfU2eQpQXbMBlmMcr09deBW7GYxZDnGdbxbpSUqll08al2Va6Hw9KwLUH8dqx79/vZjG7CQ58JidEbU84gA75fcIN2RXgdFLZ/x/x1jc/GxofDU1wlgkZ7YQc+r+BDhRb/NFiqHWcWBpnjMtRze48nGhqA2aQ+5YjNgr6inBWWadI9T1IWn8IuKZyRjzVTpi7wnOLCxQOEdogCIQtFwKr2GeCNy33RDAMlKsvjT1swsHW7lXhQ5ZX2XIULxfAgveh2iY8WaCgQJEWvDVWwhYaqNDVKfPGp6o/hWtHEVuZltFFcWKDfyMqo4nZW8rtemKvsGEWuwgeH9jIKvowN45D+HGlPfoqpMc/ManEUsfXk++Thn241xLvkWN6BOSrWPkI+8xALqrbfakn4mtDdNuZnjjXkA6ZuCeNPdnWnfVjmwgXlsNNYYhVvyrYxw9vNWH3XGYkc7INyrma3F2dC5NuQuHedN81TopiSp3pw/33OmGazUC114nTSfKeWZPDNKDcSzp+xoqrQE7yCtOqZeOv33WmeVOt2wUO9d/iWryJMzcrMe31PM6x82MdAdMOoG+hi+is6pisfHmJuth/K3PktHCUQsckPYJ2xrRshJcQ85pvpV1QJgg+54WUU5CCUhD+gmdMAKc1eYBWhuUpUm/anLdcunsia+0W7CDn0n4rWoOn7FCdIDBw7s/UzQ3DQII1yIQ3K2lR3TDwkC0jhWdbXvwBfVYKgSEa/C/N1j8AqdeUirDcXuecLDdes9thOkYC6yiE78ZEotLWvqyVLvJ5OFDCHVvnkkX+a4nw/J81ke4SMZYgqwTMVmgapPacqzyEfjfUMuH+8POiyc4U50czQlpQPMKmTUQPwJAE57pskGBh5oU0r5UbhcqHxL1JzpUZuhnEbTC3+36mOQgivKtVqVdkKFvVt0LkdnaplAwxIw7Ox75SgLAtiUkewGrzCZs4DIjzmLJZuJlw5tU5QS0YcMAiBr95BcNzBGcQzbK8eCl5J/kX1t8UOYVd8tKT1eMwba2f92AnXltiP07ccFC3nDA6QpBw8RilxtVUf6rUDedFf7nbznRsjV5b6eADA6i/iszZXV8oQ5w1I4M89xg+UlmupTA5ySl3i2pvKWP78yNpOacj2Lycvkup7N0C4/L9dnA7IgAC9lvdLk5+2tXLR4TVUuQv4ZRaQRrg/Inf4nxHv+cdBak37zXpO1SXTJ0Hmiyel8vkO5GK2noJzs0uVRgjZSQaxooLBinKw0RFaY6kN7i4wbDSLIVxzhubke3tjN2f3YdbtjM0BA+BwqyefSQkW/i3igdlpQt+tF3tI9fE4W+pTypdNzMZTCsjnNJzWn3h41YgRyrhudQE08NX1Ck8ZXXUslB6XVaAfK5/zo6WpfGNSb7lnYngw0B10K+Cw1p4q+PunB9j5oqAl5RHKmZnjZoIRFmFeV/9sXJlZ6OGovPoUqGiXccHJdg6SEeKIGDWim4hO83LBFlujHRhjfJAB53DmPqOwl8XqjbJlkbpzRghhS1xwAWErrIJVKLfJoAAxthFSIB4WJDPbEMNwZ+Z5HwqKzQXSxYXAW57VtABq3jt5ZA/zkk1x6Zx0LvPRTFsMV2sfgQVmtVm7tKVQW0ARqFOy49B/76RYPMM8xn3EfTzspRMc3a3cN33LLvZ0gvc3Ww/TJrfUUqMc2JDJC3/AK4e0bDE7SUW7CCVHb8vlTE0FBurszfXeYxcezn9/M+yJ83Bti9ajINj26IRY5CW3bM7WgsXEzeaNf59gQbaK6zm6fRUibhu4NIDU2UNI9Yaqf0a1AWe0wZzTlIzeZQzNKVNDWJxRShgyv3l2sXurmYHAOsMYZvdlIMYZnQCN/e6YY0ZIKiUsH0AWhgF42FaZ3iCqY/ZCeO3Tys5+40ZAaYXBpJxS5sCgcjcVRmm8BObwXZpEMxy6bavgy2recxUYUqBvVxVttNXhXJ1BDVWrH8U26Jsdo/nVcfeKGRgJMaDPy8ujzad1d6duD56bT+4aM7Cx2FVcwn52X4IkFlNaGyf48rVCxWVH+aJR9w47//w9AzajClsYDfL36+hF2NLwjH7EJTb6vv5Xw0G4WZuywoQobWRAWzEC6g/Ub0R+sR0HpaJHCK5YWO2H8BnWqOUborWC0d3+ye7/IvXmpLLGI7y3eZ3jrfQVExgLjLCDC/Znh9UUsIXj8nAtkTK1kVlrBfj4C0roWo4pAhzqBeviwrcixJf79VQWnFnU+bVnH9MbAIe+u9NM5pWE05V5m5MUoDBzkM3e+sofwaEVzoUUR2PSiG0xO/acoy19KvhjKUOjB9lNAwwa2vxTv3FM9bFU5Dma8DrGk9oPjBZlQbB41+UaeUDmKIu3KacJKyFCoYrY2FIb6LiVfYkncZYG1TZmIVVkNpikjMmCQONj1jBEasofieovXyHdYwG6nS6zg4JA2rsOoJLaLBtivwVbxvdH81ckV7qxk/yyGZ97Tkf5LYG96fltOoIJKZrcaAQCbp7iMjbgkNwKP/j/QQhQV5Ws+jOoKMJjlRHi1+EPlVIpTVS4EAY4XG5694FJYSYbGoZoj/zwqEQEvD8kKYzuLjSywZunqosrW5qGtR/7QHuY2232Gml7XXDOneZ0zD8mif3QzSxMZhTeO0PoEB1C/bv7qeg+gfood1qrYslAVmt0d09uDe9PtL0Uyv7KlH//n1pNuU9LK4HcPEvKj4XJnO1WO8xaMaab85mM0bG2Qj1zjLDhj5bzt1dxmDcfFJk3qgGJbC8JIOSKywCOAIqwgNsSgvZWvZfbQc/DoCyt2L1up1qgUnSb/JkwbRwBxkB+aIbfLWU37znCjnXgBld+GVy0fZwL37+wqUlYLFTYC9hYdt+I1DxtkFSvBK+z9frTsmD9vqQfZSepG81deWtQ3M0OOqnx8lO03nt40Ad3gRWTTF0X1/YjesPqgGYv+dxneXiPLO0CeGxs8ShurKT0IjaNQDZXN2Hwa5B9o1fIuMkP/rVG4Q8CXzE1EcCjdKKXrlcaDxMUrEuMsFKNCFyn5F5AmxHyhDGHkXEbXAjSn5b9Sik5NWoONK66xmFpqTDGMjwPTD7tQtwrrp+cIohWyTlKNCBs7GuZ6MW4ShYWwWCw2jC40Rp/nK3kIhf/TDDHf5lSEchJmkP+/us8LHTXKTnaBBdSeMwOVogXMtGfX+K77Q030lPwIC+QtvuGx9Qm9NSntbP74TQ+gPi8bfOQbsSEqCEh3tl8RIjf9fvQA4M7MRPumXXrb0VPubD9hnBuEF28gEgLGORpBMdvcDG/YFWDOyvm+lNj2ZvX+GSaNKJfaG1JBtPWQgLWVFioWoykLBu++yFuXptG2PE1ajVZGWxpQ2GbnbSfjkxBqpqxdVH1IvtUIBQbbefcW6JBFwKZB/Fu3cKHZ8vUjx8K91s505qgGfsHwuOP7mAUXN4VegFGsYYTRH3L8nJKojGtIWspQCPtt8ADqE/u8aGVfFPPRntmU9LN8P7flXW2tQUHabMnqycsu36EAZxSIyedakpLs55ApdWhvmzMWIJCoyJ9bam1W0RlCzG4EQLgOp6a0+WzTJre9qwddToQSVodFwE34xWLFLE5DPQ+kUo02RMrOOESMShkYFlgQC8AbQrgQYUPKVpYh7IGwpPRthP4ArmYo0bmAv+3OtiP/2Ok9WblO24LyQCabWe6VtXZpSzvXNsCf5qcbkxaYbe8B0jh2x4cmtdQvAEMZvA4qxqApr+f7+XR3pR8I4U1v6u5sG5mvsKpdqg95eh8vfD/nfKgw6xHQXmSPzlDg5tRjpuCuysdbnqwJ+GvRfud7TRDE0ZR3aeuLKi1hAX5UBslVi6Wsv95xg540cJHZ7WJ1LG7DXMezFWBdxmZQM8ofwrvxow2lk8YQGHneBagvy1go4/ExVp4TmwD8DGFOo1itt/d6XJTeBFIAtoV6Kvn/LyfU11sbjukeIL1p2LAt505q0S6HKId1vYaqTrYedpRGADcdxpte1ZVemzcPzdpkafKVnM/gNywFMeTezPM8an0WJCuUuU6TH+dP18gbze6H/yANw7mBG89gOrvaizEvxyjE21Zho5GTl1fQTS/Z/KL4yyycvAObVco6pinPGpElWvz2gsn5/RjlDE9JPzO5xM8Dyxs2Tog+2eswmO9zqm73oHoCzg22sOIzbFTBmidGopx3bAb4/scE1DcR9vX6PDwTFkUnq/cZi5PTqwZVaW/luib/JPfNhlG4Zi3GFTb2qNbMnOJqN6AePmyrTei1xmGXzzS1if+dx+EfEAakDV7v9DX5C6UaUQoe7miILTi84FfszwV98g5Q7+19NzdzwWoniOeK2gye+7A2CgxPPZDilEFGRMBUU97A/aAupO/+K7akwAzp1vy3j31lAvuN+M4Go/ZiEGPj9HjQtkyxEgoTVuSGto0MwNPkm1mMYpZRfl4nbR5D9AM/62O5ko/Az1BEZPeqCXDvkMu1o0c0g8rUPfx4uxOgBw8apCfqqvWJLSkdOtStjYnFjnO/iWhDvsYdkpRhgXpVx7S8yDYit9tbfeqzaaNgmJKOzGQMk2+lMqaGJ3y6/bMAWKuCu28u1bba0zCcwPI+WKA4owPXuYXVeaUvWcxsaHfChsarJ7ZA3Af/NKvUrzY15QcYG6XMdju/A89RrITChJWAObmFm5PKsa6euFPL2kVO0NKhtXK9aA9xLJh/yBGoz8r0uOTjXT76oh2kRw4fRj+/04Rm6klLsapvZ92jUczxRj7GGpSfoUG6K/15BScpTAhveo1dEY1jzvw40+PrE+NgzIWbDF743ip8W2QkfjQKAoMUPhoc+f7pEy8KTi5ZV0dxXVEfaEPTpMvBBkhV6lz4y5lg7RNaFyZMWJEYpCczWnQ0+WmT+IG1qE+15xFZilLon+1dWAlIWwIPmRsCb1nMQEDt8OJMAxXmOsuLVuBFN2vUi55A/jtym60B3osYntSX+SgmWzK3raqnK70hh7D3jfl49rQoytY/7deOBA/Z2ojZuwWc/PEUiBPxvS1pSq9zQts5hPb6ao55coOHmMh1PkB/ZUkyraXkh61WH15FJ7ECChNWQpbtqSoXMT0qU1vazQPHYm9bxP8M3WBT2/fPtp9fGf46pdWZuXJmSBQFZZTTGwpZ27XW65Na6vXxTaq+tcHzjeN7DNCg4gbRh7zbvxcWpGnFd+f0tjxFVBbaNmj/8A17J+UjnHzFLG/ZBLvnvfLelHCEAEu2ihafspwpzjLYJ4T9Qw+QusN1XFT5sFKmRg3YY71YrH7ChJUSWCelKXbJSLCIWWxjmSFig70MjGMuYHqPfTGn1d+2RRP5bo8CocFe1Ie0DccHqEcOGza5tmq0PoEAM8B5UkuKylluucVQe876PsefDTCB+rUIh3SgAdTpN3MB6lXz2uvy8rxtuVhnX7zLZu52O7C7KQCh79n8zOeo+s6aP6p8PKtA0cy5VlBJQXIOcvzSl3lLVQ713Fy4FJhZ/f1ubVwWgU45HGSMdhSrnzBhJWZQH3IsaHdCStCxaL+HXKBZEZtBfYfQuS3M+BBrwYRGtcvXD0V/NIjt/Tx6Vuh7UlNq9/GN6ksA6XENSao9XZ+o0wcOHOCs/s7gzLa0mnMF6u7ONmVl14yDUKVtiWes6kr/J7Q33ZXOS3gS7T+ZPe7e+WmQMqDKvpeO0wWksSmzbaJYdQDfc6Gw7WKDfrzRpCN93QNw057zORGb7Pb3uBcUS7puNgLIb5bw8Tex6gkTVoredaJuN6eEIfpDbd7YlxmejSPvTGXczMXMXAgH2Rc2CCGwvhftP8RrnoGiIZZnjZ7nTA1lo7rc6W3Dk57c2qDHqse49VJDRKRXf7qhQdEshaigY3VSW9tW3Z3tp/R0tb+YySTWRnO+oP4MCdJf5KqU5e5Ny6/aAOd577kQ3xVta1YFNir5Pbzu31nnRQ68F+hra6vcWprsrGZ0E2F4uVmED6gYh1466zxoA/O55cFoS3Lr2zZpRp1g/bIPUD9OJVY5ZA1FCFyYMGF5MVo8lJJ+mt2mIp9sB2o7J7htwbYV88i3mt5wpjpTojKW5TFr8g6UNS1Ro7J+b+eYBvBb3rz1fc2GehYF6qoxo7yYyXDs2gdcid3sfcH8HnT78W4ec3fXDEpTSrzrZwKA8ysgNyF/e+Wyue1yPp5rFjmIhzgKwqIOIpIdPELpXbZ5cn/G5ovB7Y3nB63yXiCnwhPybxCGd4uo9EVWpAmUJzmj9sGfHAVa61ZkwI8bADSqPqH3j437q9iSSlJCfU6TnzY40k2RmBI6LLpXYcKElaDRUDbxNLPJGBiLnZnrtGseA9RZ4UQwK2UBA/Fs0OrTJMt1rNxZJt2lfLZ53l7CBxSONSTi+tAhQ/xAGkdvq05LvTIrTDEZAdbzPYG3Y/pM9E+Tz21c1ZF+q6ez/dqezvTyVR3ts/C35He/J8dzqOxGZTj5L5Pmsa2tbdCKzvadl3ZOjeXuTfdtvrxESEA/m/HMPVi+LOpQZxsUaGNZLViYE2Dkwuf6WL6QF5ZPt3viPAap1L5Ii/yi3+eNTYGbGImxqaSgTuYgR/ibxVs/mNKfMqhWe98dTXmw2PLgqBhvTMrTxYonTFiJGhY3Xj1hAIHp5d5uD1FTmUIUMGnK9QiXQ1Up26OWZqKlC4uknTWsz5Pq08am0omadIEZstYnNWvrkvEaMGN9wQHSOHrzomMbEmfzVj9ngTUBXh8N6U+Ra+7pSB/l450fbHrVtyDP3TO/rX5FV3pXKG0B5M3fXZ3Lc7SDD55FhYu0HpV69G+Ds0c6Hndwfxv5apuUH8Mj/cT87xOWnGouBvIW2qJEPGueHuHeuZMNWA8hCmBsDNkEKnYyFnevv64pK4Jgpn8gkoGoAVXrSsqHY3NK9YoRIUChnqMNrqCArcl/MGtPBouVT5iwEjKEGiFXiQWQxdzEKg6yL1RUh1qT74NCl09Ydo0FCmjBkSRpdMbvUZluLO43WB4fKronNKo/a00msbiCcWkTJ1D3bgTGNajXm+d9zy/sygTrhe1TLDB1E9Ugx4eoAEe7VnfXNGavOvGoD/XpqX4wt7C3fLelkOUG0sTLvdDRt7zG55md4exzxhi6kployrsASRS0VZhiHlEa5ck2ojED/Oe1fBgzOoQNhsm+R+5jvWfVtBqfyL6ObDESjIlF4Wu2mLFsADahNBoBsRhwgYfoN88dsMHUpywVq58wYSViVFxBVb5DFqVZpjfybX/WJBT+GBKXlr6xyaU9xD0sK99vVQCjMAkcx/bfG8Vm8jrQQYIGEW1frZkVyw9wgjSOH/UBdfIRi6ccFc5hxqiz85BhZpj7fU7ZyueIt31Bd8f0dgD3ys7pqSlTpgz2qhInQP2nsM8QOX8bmB7FA7p+FcFOrxHeIAoBnfrl9v7nsOMbwgbwfMgoljPA01lkRsPX2GB6znPpcubYmKQvzrA3hDSsYj6kHhCt4tqAJGPNKLxD4RyIZLCpLJCH/QKPiI8wYcKKxFAJi3YtGg6X5ZSPV/2M1XNtz2uzctP0fPDCAOZmLtRQUFJ+5/ycyYjmtgh/EACoH+8F6qbkm1bfN8Qjchmj49rahvd0TF9MAPvLEJXeHyOf7fK733R3TZ8Y/tkZPOlu4dqswkEyFs6IBmM+3JWZm5ZvcRKZ8FaX96cZVensKm9WIZzjvj5gntORt7ePK/SHe8cpRLrF2LRWbIluC1Szu6ncRexh/90uUCJMmLAiNatIzGrVIv+9wieHd79TyMCq9M3y+KCfTaksDYk303v4o981jW9OWq1huwUAaRzWAjl0XGNio+VFWfnJXGxVZ3puLrSh5G/Xm0VmDyBU3tMxLSftYyqOYvVBk2fGiGRcwqDqnBrIm04pGwBaLuD0aAE96VBmRmteCEUawuhDR1Ec2NbcNi3gz6cKdmarV64a2mCJQ0SEnPNeWnmeN6pS5YcNyfgksRoKE1bEZiMHecT01N7w8jagXOTYmfe4eGc3WYVIMEpHqsn/l0yOGuV1PcRtOcf85+0BgXoj/Z5YTEE7V1//b3aRWyCQntdelxNlaFf6sRWzjqyO8pnZIxtZeX+y6fKqfnb3pvsY6LwIQKx5UkJRo7+G4Nm+mD3uSAW4c3Obm6T3rTqOCG9jsJl/v8mroC+Xg2ykV4rVUJiwIjZLTcvQypUv8yq4QdtHhmfhokuNPCEqgR0/e8dJiJHhRSjV2thG9btbGfzeGwICtVGdnKjbbVxjUu8Tp5AachmbpXOOGAWykvAiHNMPj/x5WYu1Jn/P4UlfzAAQtKgN8jnlIM5w6Sf18bhUSnMbG5nAGs8uPdx2Ahh2zl6aSZ+PSalKNdFzTL1kRcHQHYH+cU25I/K8tib/3qttT5gwYf1sIL+wFcis81qs7XrW6Jtlgolxrl86gPpP6Dl1u4ZWTZrRmlKuHTJkyAkhQBrHsFSybrodqHmkFP2MAPXTYYF6zpwpW0b7nKSZ1r3Zubfd2u14NMORvnAWXrk8+/XoFzbysfK5LLrOIvasH+AHLXb/tlmx7U00koi1YDNjzwXn656Q10ZBKDYE0XrX8qliRRQmrGjBug8EPMLfXzhpFhs1ZY/M8KtBDuFkhzJkM+WNbt8/riHxHfS9Dhw48OaQQC2nlFinHaijEClA9Xc4b7r9zogf0SBr7KGzbAOh88NIQKL1CcWEtk3XLxBVsctlcsyHR2kLl1LbWuTTe5Bdf9vvYEUOeLgHegmBzNZDqxCTtxo8rCGnjVZIO7tbjsVmt2PTIVZFYcKKEaxVZZq/LKH8lj1X5uRmtlpgUCmbAdTJeKeXyP34huTdKTn2B/LPh8IA9RZkvSLnXwk5TLdNREiP+qIwQL28M90c7UZKWdqnD163G9sb9ifvQJ2AU+MZvdAo/Mvol9aUZ9mtTq4c0z8odupKpGr4vMr40dkbG3f1LpbsJpjBHK1xgwvzDiOfLd0WAWBvMPvjhQkTVnyedR8guCxE/7a3v6Bgx/pbLPZWmNRJNtJLGqFKC1jfO6ml/tGaylEQ0vhnSI962IQm9YrW+oTeyxXelNw/AqC+Prg3nRuZCTt8a+Qk0XdrbHyUY12BJhHfO+vvCbiDw9oqeLKES6y+WuqRqfJ/kfu2JCdDtAptAPWsU9ilqMCaSnP6RgrOyx7/TF51b6A3aFdRk2E759qoc9be8yXeCJ1yhOzdKvg5oyZXilVRmLAiNKok5P3yLjN7o2m+GpSPxt/Jy+2SmI7QoZUHv5bxlUMIUL8/ZtsRyA9+FQKkH6Ng35x6zLrGic0pXY5VnVxhakmHB+r2RwMDdWf7jEhDmza5UcMrrqq1e3DEizoNFdm0N16VOjKfpXIowJ0V3rR7eajMz3heKekE83ltCpnrvKVYw6d006jJH3oUlN3D9sj51LXs/dj2ja+pNDeg0PeLdjry/s0j1/VYSFnPv4k2LmHCihGss5mtstqyrF5sizwBikNufNKoWLXymtkbA+VQiHBUjxl1QwiQfrPCqBQH2Umv5wD96tEjt0HO8B1yYANwUkiP+u9BgXrlnLbaaJ+F8ncrN017enu9YjZvNxW3UKUr7BKYdv5nAL93+NTmCarSYniTPHSzLtXE9yFnW3RgDbENW2Gk45r/j/0caA6fb6NCNrJ981teYWcHY8m+Fuy9Tsm/MFnYwEm+NmBF/BqxMgoTVmxhwpT8ohsVoQ1E3oQ4h/nv9cbv44ewz8dmfwKT1uSxDfroEVsfwAnOAOAnydFdYXJMT2xsjJMNQ+81TmpJ6fGaSvvffDfo/VMa0I70JwF7p++P8hlgE9SrUqXGj7Y2Qy49zQOcOt/2lIVb2iHD+0rGd8koFrTVFIAGNmwYlVJlFhlgI7rjporF6vlHKDnQPdvanewbXyt90Y/3/QWog+mGBSp3KflW8g5/xNln/osK/5Y/YcKEFcqaUvFvur6wydqk4UXHDwYZBNo6ettUXMJkVNDDVMty/HzdxGbNqgg/jRzrK/qITJ4jx43kAFc4cs4oUsuSTwS5ybjGPrIThL6TUq0F0qHybD0L2rYP6k2v6po+NeJF9SVzcf8TPGorF8wCEqfuMjxqsE+hEp/Hi0O1s72gDPlNZhg1KR1AF3eXVi4fwF5L5so5oK3td6COx8e4Vbmjkjrr3n2odlm9yY5N16nFQB6TkqR60+ufl/FcyfuOfvyMOgb2pu8NiPuIFVKYsKLxOtjKSeQln9sLEDbWJngjbhSTFgNWg1b3LdvPxjcb0pZ2kQqweaFqmjeEXD982FZ3wou2rmM8Ae3GpASQDu3hdnfNODGgN70Rgh5RjT02H7Yq7I9YHpkdgBEWh+ADxCmwGAf8usGO57jJjx8ceW2EdcnC/lSoPDbqHMi19utmVJVWurB1HeOycXonIOvXBMdmqt3iKsAmqr/uG5sO9MSzNtWxWGwYihWRU/fwrP8XRfujMGHC8hoeVG6wLT6nO+kUmYui1cuqSd228588tj6hj6tPLjI9ZYXjssAhjjwrcrTIeesjt9latwN1Kw5yXmnEiNHhgbr9zkBAvTD9SLRjr9zL6mUHqKL9B6FoEF9E8l0OAQ4rNBpk4ccGDH3VlOUqpXwZwMt+zuyzH9cvc9zkTver/DY3pU8HFcAwNjW0/e1MCNnY9d0hV9pf7zaV4CQbO6/PAMjJNV7q2l+vxQ8Wq6QwYf1sdm5px476X30ArJxokwrs9lgQL7boSm1gdMN2rSm9Zsy2KFAD09mfybELOZDfQ/gRrUYI0a0mB8hQIO7xaYUjb101epS+nQ2oez3rlBKaFpF4yP8IBNSd7WdHNu6J2GQGeGwCkQmq68m4vR4VO5izvxggm6uwhCFkET+kSZXPNkL28ou0/cs/B/prSHdGIajCDVhMvelMfgDbxvLqwJEDQ2VuqFsfNzYpxb4O0OgOuX540m70qcKECes3oFaud1caik80ALiPxtCL9MIqdLLLJKLICUA9cpvhH1WE65+mR6xqdIZH3ZdLV44Nc9/L509NBG/LSkem9Wv3urK9GOXdCg8t8EDP1xYN6V14k/L++ZhLCKlCqQtELU2afJVJqrLJs2Lc7OnO+zxXlYucettMUE/KRwTPy/fxhyMUzgyfk3sthfUA0rRMXnlNWi1WS2FlaSgY6m96Rq+WFCxaJqh8Yuc79lgMZ5tAvc5YtAx5xYnN2gcjh2/9YC5ALdVWsYE65AKCorCgQL2is33niIZ9qFvrEIqQomrvYTGbFboiGVXlZGNwOPW8ab+3/CKrAhlkLfB8myort8nTpQywh+vtEaOM66VtXYH7kHU7jah5jgdY91gqaxNqC2zFjTpLKEaYsLIwEIkgV0he6rsq8kOUMNTvAyCu8PAUjmpK1KiZYT7pBLdzGZzEvcQdAy0Pe1JL/WsVBpMZPFLc6x/N40VeoE5KNQB8Vv7zxjAD09OZviRgIdm7UT2UJlW50KX46rIIPch9Wd+Rq+JYFIaNCCIzAGaQ66DCHP3fADeQu8Crywv4JKW9MiNG0k4um9c/hiicuyr7PNlcBWb7U8mYkXOXH7W9b3eJlVtYOdoATH7qZURcuIFQpJ/H7g3U8s12VSEoZiGHxzoP1J4oEYfpjdBF2CxgmtCsunlxTbxAnVLq9Ak2LWrbNT0WZmxAAxqQNvSaKJ6JUentaHvS5M+hlBRdlEQaj3OWokcHjzqqAjrm2KjSFX4FdSg0CyF0sZ7VDUH75B060yg6K7VFiqwDqyingjGP7q8QJqwcDUVaFj2nW/tTOO9Nmg+SizBA7WzXAI8yKnhZC6nBdiWPQ+7PzLM+iFYu0zM/w+XrJ/CA9IABA+D96JkSl319u6E86q72l4IVkk3fL6fngMiEJl1OFcocVJ9RFlYB6Fj9z8ibirfMBOKU/LZVVFdVVTU8awxNOtzgtKoGB7jTEP53trhBFa2U1ymLBEmYsLIzS4oSvc0E3CIh1oB3ZYZUh+QI1L+Gdw6PGYIAjMXtMiMnKrdn5bqJd+1yeTvyAPXgQYPw/fq4hiRT7SvomLS1tQ3q6Up/ECDs/X5n5/ahiruo2hFIScxNi51JDF5KpItoojKGjRTzGXKwlpWLIfxvtWw5udNtXvUHIche7vJ5F29zzN2FJTt+mnwjalDEbBJWlgb5yKjbOtB2gYKenIBaix8CxSw3HWiwZqG1CC1FXoU2DtuZB6iHDhlCe6bHMoAaXhF6WAN503OnagHD3rcGHPKBAAC7ClkWM1YeJCOpRCkbQIQ3nTXv40ebaYd/uHjdoUhesFnyfka2Vkejs2JWqY6hH2GOMGGb9yKCAg6zn5F6SKqyb05etSrvh5YL9i5fuYPDU/iKflaJbW+0RGXLHFI9X015F2BuZzwCRabHpe3KA9RbbjGUgrQlcZm9OMYmBxmPVZ3pI4KFvdPn8pzXII9QeqxcHo+gQ0Q2mNY5uNLBFp9oRjGY1fEAUh7Ge3FmSM7zS/2/VznL9vmvc32/hQkT1k9G81q2fCaELXJblJTXG1V5z+yfG7SfPmHv7xpehtLl1oeLCnFLptEubuBz3XvzAPWwLbfQxzeprkAdlJChp7N9daC2rAXtU3wBmtwnXwpBgeDI4CjnCnp0PXqynxVvk+d78aZRDZ8ZlWmS5bpQQE2eL097XZa4igBrYcJK01CcRcD6lb4XGuxP0pJwi7lyPat3lCwYT3BoD59qALB0gb2/OgOstLpvWd4bOefvbNd8usdlHcYD1FsP25JWfLsBddDCnO6u9O0A4FMWzeTRnn4fOW1m5EONH43K+GCLued4hPEKr/EEDkb0Q1ifWQIWrPyyvS0pUFGZS5qJEek6JYMtziQYEiZMWIkZ2p4I8L3naOf5Odp8gpwH1a2s3lGrAtbHo37KAntz9z87KwKgKXuYQHSrJUpg5rOP87isY3iAeputtyJArRGg9pTm47ZVHe1rVy+ZrZ9Bju7OtF8h2S1ZC6wS257F081o2Xnd+TP0zkc1N3q51d3DsHeKN4hjHM18tbM4ClXc4bxq/jY48gwX2f9W5H2FCSvV8FyyNkkW3T87xRuCemfkb36D/LH1/yjyYlQjf0x+9h/H4rOBfHyIVXjGIj1BgZn59w7GLbnd45KW8AD1iOHD9AnNGhXicANEbpCed9g2Z51w7Jdd6UP1aQdN+ezspXO9isj0C1Z0dFl/q8mxHcj9XMcB0G9gjHqLycw+2ij7Z1k0j475sS5okV1Zv2NGZGSD48dDnT3QnD3VnwRhl2vU4vtYlLKs9JQwYcJKx8D09W9WH7EXrafdoEdM/8aUHrQzifVVmssrenslM1qslD0gsGEuRD1Zi40an8ikISV/53FJZ3AB9TZbM1nJ7AdEInjGYGXn9MkXdXfpe+4w7qv9v7HjZxeu7HAF6XOXzdetv5NjVae5FrMx1JTIc7nSKqbDwo3iwEKBtLGZUn4kXpmgYK286eyFDlv9Haaa2+RPGCqehDBhJWxUscjJv5vJsjTQ7xxgQINwvBF2U5Y6z1NBeail8dkALv3AymezCExYfwPijeZ4fIzH5XyHB6hHcQC1R6925s5g8ezpJ809Wt9hfOPnK+ZP++r0xbNY4W79HOJpn7d8/h92nti4R6xy24fGcoG0fCUdCyrpaIiTgCTG/PeyKOYAOLM5PToRQg1o0N8m43sOGP16x1uT54as/v6zGFFhwso7TPdHl8XhFTf+4r4wm3wcPkuVjgi4O/7+r7bv+CALdHuZxrJDuKh8Zl2Pz63cHBVQe7CfZRjxpk87YM8d9W/tut3nF/cspKDsBOlzT5qnw9Pef48d360eM4pvYSYbGTpuSeVY62cYY4uyMqLnfjJnwVq7eEvCGbotnGxlLD1rLq86RylRYcKElTpYp+Tveuzmr/b52/eNkCzx+FzCpTQE7g6KWYpV2CCEKGb6LRdQjxhOgDrl50XeyzNuyxdMu1CVavWOaQdvOnfZvAyARhX4JScv0lcsmKZv11qvS7WV6Hl2LWLLUhlT5eVOJrCoWm/A/MaZH31TvB3RGksqlI9SNH60GD1hwoRnfZMHWD/uxpIE1ix2K0+ftjO8CrssoCOPfUrWORN1uzFA4yyfW3gmOo+6TwPby76x47jL6xN1+pknHLvxtOOO6c1Hr15yrH5xdxcAXG9Ixqn+Nc7rnZeWN1qtOGilc25Q4AGjgC/355ytwuSeGxXFSFEbKDPDhb+le8ToCRMmDGQXJ7mTXcifk119G+PPhjKA7munOARardj5cOXELI8vKe8fop/0H9EBtfIez3hVjx61duZh39IvXNVJvWga6iae9XnL5usHT9lFj1WP1hPxGn1sg09OWpM/szjPqXavJm8yW3Ne7R2TRI2aqxIUohwBerTPFW9E3iJYb4cB63xJdgoTJqzUFhFVWsJDWJLppWVSh7LyyXaGMUef6Jysz1L1LMciVVcne1w28oD/4wHqkRxAbbBLxZSMa4JiVX2iV4yidsyoORNbUvoZi2dvsorIANinHz9L33lii149eiT1pv2qu9G+ZhMmGWTRvVJec0UZG2HEJIjc4gbxJuQ1enVyKK86JEGRMGHCNseFJFG3mx0wGODyaL0sp6zPo2jGKbfoPKdBttJHXuLlKYN0xAHmr/pccrKCU4t6xHA+oHYyppnhx9soaFdWblMzZttPjz7gG/qFKzu/Po2A86WnLNI72w8mGxlJr6seY4S6/cksXrMiD7RYTJNfyAcNJDnv3UEAAcxw4i3In5nvwqYQ1d/PidETJkxYr8GjdKsIt8Ttm5LSATYwuMkGQEzRDlYREwgaMj7D0EBuSkk/87ncyfxA7U14wsqJQ8nLrLamLWsNifjZKSWmL0wf+hkKxs5bPl+fedg+uhyr0qWaSp2rRzolP4V7tW1OnrKFwr8X0WMcaolFcBctGTKmwvLuVUvfD+VVe7coChMmrBzNr0LY4sYGM5mNa7iLeS61rokBDDtkLGDJeGd2Dlfq9rnMfXiB2o9C1HZfN9NrTkmrDA871mx9mVRbtXGXSc1vXnrKcWvPJyC95w7jdbRe1St1Ol+PdGZVuT1/D8a2qJ4dOd/fAgGBi0yjsOjNXjAY6BCCG8KECWPu/qF0pckfeoDaMvNzz5hgcxrzPPaWI+PvNjlzwbTCnCOP7bCjeIHaT5TDVo1+ndUmRjYTV/VtNuTTUMU9bf8p3zr3pHn/3GF8o15L/t9oveIiMrkpcyNkiJNYlKsVHEQzfkZZ4zT56YBh1S9suXJh+bcBXu+UHxGOMGHChGVZMjlqFNqDvKqELelKVIgzCBoG4ucOz/LfGaBFw96MnKk/rel8XqAetpW3zKW98tsuIgID3zUtbJNj5+6xfevO6MdGPpoHoFmFeODwzvzO3IESQh1hSDV4VZqERehVe3VZuG8g/ytGTpgwYd7etSqvyGYas0lnQryeofoDnWeW3i60eq3PoIArZDh2KS9Qb7XFUH1cY5LX+/3K3hKFVjKzH/qBZLx2HchOvELdaMtCn3W8Zoyu1lWvzIwcSFMdfbJHReFJZ0qZcrdi3Spmdn9sfiu2DLOpAq++GD1hwoT5etctmnS5z+K/sb6iYos+YJLXumgcT7F95jkG0cP3OS7pNF6g3mLoEAqgfr3NAOkGVf5GJrhmKYExD+S/cdRWbku/Z99dt8/oP3dSpPqxv3FvolLy+8FlFJVnxIzuR69aVS4KHP3QpAvEyAkTJozL0MZjqWC5gN2Npvc4w+MzJ1NvWovvww7J9lWWe9i5vEA9ZMhgWvE9tiHpV5X9PwcIXsIH0gncEw2Jbz+2QT/x2KkbV8+Z0+uVJ2pqVLvcITnvw5F4Zpryu1DUlIkaVczk/rMmVZoQIk/9mBg5YcKEBTIUXaHHmNkbqir7elUfN2nKr9y8aahzcV7CRbxAPWjQQAqk4/yAWpPX2RbTlTwLKLxntG2NGbWNPmWnifqaFQv0c5fOy8jDt6QSb9qL6dBTm7MnbeoPh6ggni1mb/9bc0p5UlTnCxMmrDALTq/GtHSPBR4eHN//NcU7/kL+vZ9L8RVvq9IlvEA9cMAAnWws9PGNql8x2RMgIyGL4k94Pel4baWejNfo0w6aQqlEzzpxjn7GktkvWRepxmset+fnffS1+TZJpoJZ4EOTfy5mbJG8N0ps+4A1BRudFL3ChAkTxgnU8jUGCEk/rU/Gd3H1olN1u/eCuguQm4A/nvOrL+UFahwo8PIF6pT8Kk/OFwAN4K8eM5IWli2ZdaR+2SnH6aAV7e5sB63or3GBlaNG/jij8CwCb9YtXcDRx73erpMsrBi8avn+gGpabWLUhAkTFnyxUeWHTJD7lPzvAGvxARiDrQx91FarFQH1tA9D1twAX70mCFCrUu3XEzhoRHlAGh50vKZS33+PHfQzCDhfuNIU6Fg4g3rUy+ZNW51S47NTSp0eJfOYQTmqfBxK21iTdxSztbjMTBEFKSj7thg1YcKEhfGoezWpyf8OkSRptKWm1ZKITbZ/FqE7N75jG30nL/nH2QGAep1UW/nppJZUTgDdpMq0qltTYvq8ow/ULz15kX42AebuznSv3OW3Tz3u61mHf+sBEKK09uXdn41kYdeUB0MVj4kFvpi96rcDVOs/KUZMmDBhgY14wW/ZCDT2N8H7tyb4vu4A9RcYBVx3N6Xi3+w7n3IiOec8jq/mbs/aeqstN8DD9ysmcy8YS1IvGuxk+++5IwXmC1Z26Kcsmkk9aQukQS26bN7RtKdck2N9eXkXXe+A47woXMhbfplsnrYSM7U4LUgqA8WOURQiChMmrIwMPdP2PuNGNT6LAnJSmmLzlM+0AfUDLZr8f1Z1N4t9DP3FVlW4j53CA9KVo0dSQQ5QiKLyO4wnDZIT0G3Obzvwq4u6u6j2tAXQOPBvhLzPPWkeVekCoFutYPVKbWvOi3ksVmmRygQmylCqNTFTiz4qtZb3eaIORIyYMGHCuM1JXWnPMRNAvs/6OT6XsTDR/LXyJeucIFVxSlw2qfJhoPJ0fPT0Ch8hjhTxardrradtWWFA2pS+/Khy2xHpeUftv+y7ZyzZZPeiLZCG5CUAfP89d6Ac4BYDWpMqHRPBMA8h1/5SOC1j5Ttilha/taTkdv72Ovl4MWLChAnjNlCBgs2rbxGRFvR627W1VVY+2imjSD1rfJ4REsZn8XfW/5sFVLenUnWy46PMHDVasZBH3q4lpeeSkzav/YfVW29dgy9bs3zBSoC0BdD246JVXfr0g/emalrQpm7lYJIypQsH+Htb0upQ15+S/ylmaEl51a9wzstrxWgJEyaM21KSVJ/pwUkdDpD5fh9XcXxSrweRiE12k++DUpBZmDbYPMd49F0z8qxZhCejR25DvVkANNqimkO2MUFIAxza9i87c8nsq+yeNM1Ld6b1i4knvXjWEZTbG1XeAGpy/Jq9GMcbybnPATMZxs4PqHvHKcRRL8spMUNLx+oVZSwnUD8uRkuYMGEBvABpvJc0JagqbQvMWgcgv4D2LQZQ30g/b3icqIqdg95mxtdfaQH0AOJFy7EqGuaG7nQu7VduOcCVHdN/agdpgPbZS+fqpx13DO3PVuqq9cakBJayV+vr+/jOiQ0EuQu5r7vcNjSu40u84pA907eL2VmC7xPZwHE837+JkRImTBj/wmIrGjPJSmZkeYWa1N3Xyxvfx/zxEOpdMmQWLVlNyyMEoYqp2ey0nwGkRwzfmp4bIN0a0ou25dh/7Hav3V3pn9tBevWS2ZQudOeJzTQvjSrvyWMb9J6F7dvh84nKyhjtI3e031iV8Q4blD0OypkhQ96fQjpUzM4SfJ842MrMd2GIGC1hwnKzQSDdRz/x5u9RZxKYuMk2WgVn4PZuVOU9vVpMEOa2h8pbNPn3zuIy025DqHu71hSttCYLWM5kJl7PrLur/SELqE9dNFO/uGehftT+exKQ3pYWqkm1lXrH9IPXL5l5eGtCqlnQkJS+8GOWQpEd8vTO8XBGKgLm1tPiFSxdA4Wub9Qngk4CYcLK3QYQz2wHsmCez6kCVcKLSqZwRaMmHcT8nKnpzJNjI4D7np1Ji6pOacqDzs9JtVVPTmpO0TYoL5CGDjWA3CAskb72ALjfel0X8aJftrxpgPTMw/ahRWtkQ9F7jr12mvAl+f91oCvN0r7W4gdn3KcqdeBnrB5nixNdFJCVpQ3206uOqJtAmDBhYOFqUpULyQ4Z1clDi+m6nO1SYc2pT20nLmF43y/7ea74udUvbBZbVZgAdIn9cwSgOyaadKBW2xX+f3yTSgESOeNJLfW0qAyc3Epd9esNifg55HNfuLe99FWsO+24trbhq7rSn6N4bM2KDn35/Gm0txokKBYgW9SiAG4nSDu9XLRNgS0MUpXO72pMSUeG9aZtqQVhJR2p8k57sGo7hAkTlovXSbxJI08ptxfD9ahqLGHpQUewoGRILTYn4ru6fzbeaFPRuo71GYS7rc9UVVUNb0rE96afTyrH9o2nvIP9OwHQyE+jmAt5YoA0irpQXDZqxHB94MCBKDijCxv57KYwGs2r5k9vgSd93vL5NOyNz+P8Y51eM6OC3F7tbkYI/oHKdtdxSsmvhgx53yjets0nKuclDkPm1b1iiIQJi3qHnFK6wMRFFtNLGcQd/bBjl69sUqX5EQD1E0GEH+xVrazqahCb9AKnLNc1pZQfmcC+n+3a/wgvGoA8sTlFQRn9yxVmBfiWWwylVeAVma1bZ1KgbtE+d1n4Xve67vOWzdv7gpWdlDZ098lj9RryfRwg/WZDUtrZMe5rMWZu34PUQehCODJe4k3bfMyLWhQEOGKEhAnLg9WPHj0CmrImY9Sh/boIJGPNplDEwMD3kajbLpWqqTaB+t8ZRS7kd57RBeK1gorTrLB+y/l74m2eZC5EX6DwiuanUVhmoxqFMMHYhsRrDar05Yjhw3hFOU4yPeo3XEKJl3hd97I5R83rSh+qbz+uQVdi1f6gmVL+AnpVxyblNT9xDuTvQ3rTD4g3bLPc4D/jrk09apQYIWHC8mAoHCLg9jtzcb2rP3l7kV8GsUfwnb58HLn2mw3GsEz+aT+gpt+bkm91q4K2yE7IGL2B8LgpD/mZQ0d58IQmtaly2xEbKvjVsxabHvWDvHzYmhZTWjV5XiJWfWkqUfcuctJSbRVlHWutz+YDh5cP6ct4zZjLKxztM7hnMLhVeNcqDPXS6c4DuclQ1AHgPsWbWaSbe6W21aOVcAcxQsKE5XOnTIDORn5xRb8sArW1VWFaPdCjC6+2KSWtygI8R6iX+feafJWdptNeUGX1UCNsDO/T9B5edJ5jfJPahvxzAKCmBCOTW1PXMrzR5/E7eO2opoV3jfC0RY0KEEaBGKUGdQl3W787ZO9dsvLEKCikalo+KQ8aQQjF583O97M3WdJBZL79AGNq17VG6B9RFvFmFp/ZOyb8OAuECRMWPVifbAtlvehVdZzHa7gpTEsPZQ8jnq7To0aPtL8nL/8E7Eq2e7+197xmIRXk/KywN/n3L7OAujF53dbDtgwC1Efj7yY0q4cycsn/tlekhzkSdTX6DuOb9POXzT3B4Um3m8Ie0znG9E/hwt7xRu8NgHyYyZ9+Ka1NSEk/Q1UxqstBOGNtmBolKS7eyqJdK95hhL9PFyMjTFgBzKmaQz1VVZpQ4EXga7CHBfqbZLyTGUJW5W/4/i3yblr8YICH9XcVZqiYJeUIgHGeY2x94rWtthjKDdQjtt5q6cSm1N4EoO7IlRTFENyQ6dFq/gwV4HvsME5fs2zeHOsa5Zptx5mezxl+Y2Kvdg9IFfqm1zOiEQpNeRDPlwXo6PUnG6IPIaMp3sYi9qrN7gcHr/4VYmSECStYaAvtRsSj7gOmr8nivqZQxSIobDO1pCfy/o2mSQ3MXClHjpoSmqjKbPLPAbZ7vilVVye7FEpltJJBRQth5qFDhniC8xZDh+hjRo2geWOEsceZ+tA5gTT53kRdtZ6I19Cqc+vnEOSAxOWVq0+ghC/bbLNNpUGwIt/CuVl6INQ1qcpFznNBE9w4n3yrX2U/hCDEG1gqXnWfwI2p5369GBVhwgof3rrLAVDvFCoPRb7rD9ggBPiTQaw+T57wKVWnSkk/M/99g71Smpzzf9kV2UqXIwoxHYVbgwYNYgL08GFbUQ8XjGTor6ZKWjnoUbfaABptYBPJ+ea3HaTvvv04SnqCz8SqR+uzDt9XXzVvHuXY1uRafN9jPAOJQrbQLVkOghkjrC2va0zKR/RtbGqqEenA5qhZlVcgZ44QOBZ+Mv49CKHCsya/W47PQNHMJJsZJN7KYovACRUtYcL6/0VUpQXkJdzgCG/+rgCMU4OMlijKouZrtHrdAdTI9fIs7tY9mf87BG1a9mhCFhg5hDsIaP4YoDtw4IC3LHAGqUlN5bZUZhLqWWAl8+tz5jkA8CBRAUAjBz3jsH30c5fN01cvOZaGvkEViv+CkWzlvGmvztpvv61jVdt+wAvSFaCL1JTXQ12fJn9utYCBLxw92pQXPRHfFTlx8v93g1s9Qy88GB3p2wADpAtomgIgnohNtlTNhPVD9M3GM0DfVyG+IkxY/xjylWhPYoSAz2NRTkZljZqyh5lTHe/7WeI5OwGAd4dvr7Sm96vVfcsLMJztQ+Maki81ahJA+j6AdNXokQgD6pNbGwxO71Tu4hxWmNvymNsP3vtrgPMlPQv1y087Xj/6gL2oYha9PgLku0xq0VcumLaWXNunaryGF6RpMV8O4ht34xzQzSb//gD84GTenGXf+OTloEV+8osEyH9BPXNVWky89GlQfmpO1iYrhLJTvqNf1/TOgaQ0RYyIMGH9ZPCUwOfL8HL+FbTwK+CO/Wx8jx8XuJ0O1HZt3/U9P/EAzPzauxngrclP8zIwtaQSHzcl4w/XVI66FyCJ8DY4vsn3Rw5KtZWj/5Y+dJ+rrlp9wtdnLJ6ln7Jwhn7WiXP0XbcbS8PrRkW3RL1tsKSNHrHNtfwbo/AsZGZL2ARj7JR3zTat/+YVoPk3EO8YQK48iVw5UjpoIUPbG9lELILCGmoZRJV5aBtskQYhZSGGQ5iw/t49q/J+qMpl9f7ytEKFMat/ucIjjI2FNis/rcZn+Z0b3rF5/RnkH0botq+v115klgX2Kfl95LknNWtfIcztqprVkDRy03xe4v+ZYeJNljetAIgTidhpi2cedjoBaShnnXvSPP34Y46gXjR6p03iCRr63mf37R7mBulYrNL6rhCV3u9Z3OcAv2IA55CA/hXY2kAri3w5+oWh1S0IWLg21IeZm+PXxGgIE1YEpqrVNRZpBos60s6DHZENIOd9BdzkoD1le4OZPMQoAgOBii9AqfGJbiIYLDEKch3LHGG/ZW4AB3AdR1WzUvQgixkA9Ws7SQmukwDCUgAd+ohxH01qXROESuDV23Pksaoxp+A71yyff0dPl6FDfeGqTv2Iffcgvxutt6bIeeuNiu/D9tlNv/TkRdztMuQ67g8Jbr+xoh25aFYXOYB/TTYjfzcAXL6W/HcOFN/ESuCMahmFmIVu5xQmTJiXp5uS290Kj4z+YHlcxAvBx26SlKgqdnJbc3kCqfg3+/6mbnfr51iIWUVPdopVqt/MKPZCyBnFY/CgmwxJS330yG30AQMqNkq1VV8gb22Bu5tqFQGDR+znTdZV/8L63WnHz3oOIH3Kopn6ecvmQ3OatnwZTGxxvZEcKxZM189eOpeLjhXFXiGLu/7nuOaLN0egdlMhQz845oCZBy97Q3rMoiIWoyFMWHHZQK8FmnrYSWmviL5rqLUxcNKMEm9uquN7v/CSibR51LNYPN+4Ztbi3LsoMTiPEfamGtBSLS0og2rWwIF9qllbbTl0HcLjpke9wSyUOyp7QyLf6Dh3b6Hb6ra2od2dMz6iYe9l8/QTjz1Kr0/EKUBb/dMA7nMJgHd3pWdzetOvhQMr6fsoJjQ2bPLVrFRB+RygQJVWh+Q433xC4GSzCzU5t8iXMGHC+jPspcr7eVX3Qieah3ebE1jedgo/NGvxQxhAssZ3YVGllX2iAsqJtp/PZ2w6Nlka3ghTowcYTFyo6h7fkFxVXbXtVUMGD3YjPNlA7n89vGlb29f/t3f1sU2UcbgbGyGosNHRj/Xuetdr161lKgPEaZQvMSDOaPgIg+DH1CEYJCQwkaGEIIFgIgYQNRgSY6LRxRCjJkbgLxORBNSAxmDwI8QYkBhBx8Yq23nPe+/bvb1ePza2rKTvkzSB9npre02f9/m9v9/zJOzlebiGpal4xZc0Adny3AoFJI3b7vZnjabZjYbXXZn0/AZRNz8429jZ1mpsWtk8N9f7xzUZdPMYrndIvlK85JxxAfNhVJXmIb+8KH8LdPlxu9eAgIBA4aDMMqzIut93CuEZ17viNkn1M34/DCt5nkBI6lNI7nTliM1EZzhXyn2ln6id9+CtRi/peTZLjX1klLjZ6VyZLENvHnt1cizcl60xzSkEI6ord/PHrG9Z3Ni+ernxavtq45nmJkOT/EYkGEh2e2OOes2Kh4na3rWhVc9ZqrR8zodpbEr5m3bPJ4qTsOW/MDJWE5TmFx1ZBwONIvZSQKCAAScp80fq+xz7mxfhmX09lpFIlCJkRk0W2LnhYtXvqmYp4IyvNSQf6idFy52Mnrsj2/4kU+soscfDwV76tDsyqemQXN3N1HTShzxUfV+yBG8q9HzGy7asfeyhneufNh595H4SvIHu7njEUtOwEW2IhY0d5uN7X1pz2Ty8xLyNkT0e3Xxv8xAhCgtRdNHTNLDzQ7xvewFBHriueD8snQtWrDSK9GNsXZCAk6IjbeVHWM9ST4BicVgbLX4NBQQKfVWdksaVlbR/Nglk22Caz2o1ZY+lJv21VMUdse6X1uTT2IJOXt5xLaludeUb2w/tZTidcWrpMFscxMMqm8GOOZB0n7ti3BVTTfdyzzXqo6HT5O8EA7Mx35teVpZ2O73e9lXLFs+afjvp8oa3N29DKvmqjMXzZ5Ams6aZd14Oyf6vtYD3wlA4omVSzNhPh60sbEfhDpfPNUO5n4zTWfagu6zFEjEs+bcoSFuXf7d8z5UlontcQECgAEpg1XexTOc8XaYOEQ/oHFGJNmXdYQ+EwN9lyp0qywxErZzkCPQ77pwX7CliUP9sTxbnhUq0iDp4tr+anErUpaUlibpwsIcPzKivUTETvRZKF/7f+Rq1SG53IOBxn8BzWhbNN6bEI0ZYqU557vTb6kgJHC5lKInHhoGk8ZkhOGWovyvo5ofiRAc/RtbMz3o/Rn4QK0pCPWBHGpKPEw/2kHzKauCSz5CZc2v++ayl2JXfyM2yHP3Dqt4ol+i1K7wyfEg5jwWluVjdjC5ykcMtICAwQupaWugUmpFjj+8wVIf59LLcylp6i5Kyy0622bKXU8bLzB98eneZvTzLUqdggJE2khUO/kCfp9mJesL4W66CUHnlC+eysrLSl8e7XJVTJ0UO1mryefZjnckuNabJ96BRzFTixu721caypjmG112RQsT4t674KUEPaxn3l2hIfh2z35j3LuCvHfoTyv1+/1iU4WHqAiMbGJigAoB5dfQ4IC0OPQ4Y1cN+sjXqJy8lqV9qoJXMuZOytbIVfQx47+YN/u7vYxFBxrR0+Rg1qDlDFwh/kmtqqmdrASGfJsfo8uckcx0BJMQZTdqJG+x4EUKCJkaRICYgIDBigDGGqYYOkEavgRHDryiN0yCQbOr4K94KtC4kvUYJ/4TT8V6v9yaUtG0hHi40utnDOBACwS06PslA1NU8SZsvtKdGk7phJ5p0J6MK2nz8bXY+VVXHZPNMN19LM5rENMl/YPOq5fu2rWsh41i6TU2PoCI8QoxfVGkGPlPxTXeNwuKAXtMy8XEICAjccICisZPdQNQcSCHT6Au8uGEWQtSvqZaSdqIheZr9WDSd2UrO/5D7da8nvftaauNUeIeNqJkSn8ARda9v4oSuhli4j6lpeH83mOoa+8vm4+/kV4mQX4hFgoa7cvxG/P/gjg3vLV0wK01NF9D+60X0DUSDgVnimy4gICBwgwP+wGzMajAdxtjTc4jVK+HDAZIBEQ77vkhXsns9k9cV9GppvuG0fA7FSNOa/iPuVISolXP0lFBQCaKmS0oS8YiawOgWR+hGvEZNjC4vB1F35EXSyJ32Vz3F7tvV1nqycXLMkP2ewm+cggUqSsWCtAUEBARubMAsBft7g23EsWdjs3hMlNqhvlkUoss2U83bh7KbE4Hz9qIwsqCk/hErrZsEzO+NX3GRqMuKrsl1eh8fwAG/bzXgSVDFnbUbnZ07Ivvv5e9vbprzE4uztC0yyK1Gk0gUJmxEnRT3QLcdhnCm+HiuUTkBAQEBgQIHcftKt8/Mlwje4InYijNUjkLNJY/R5E2pZBhY4EDUoxgZp7iDBQKSdV7pTabYmatZPBLs5E57qby8zJgU0Xp4NY18ahieVFWO66FE/WkWJb3damAjjXRJzJwypao+onYhKYuRMLzFsX+N0SzMVOtWFvW1qZOincxWlBL0Stispo1A4TPQlLnoYKcjch+QTurhU9lIBds+VC51AgICAgIjAGJYoil7BppnDJMVNtbFnMpg8sH7f7s4EwYnkxGU0nn/bzYvnCRR2rlOxod0+UXSba0rfVwz2DmEcDTEUju9QajxsNozqrS0mxL1UWclrbxLXqup6u2P+dyVbSDlOLcAgK/4tPqo8eSSB4wnFs4zNq5sNta1LLp2a63WCULn/cSxmLGp64w2jxgRQhMbQkOoicm1YVDZX2TryBcQEBAQKHAw0oT5B4m5zO/HvxtmGoT0qH93qqFIf/nVnrhFlLPPNxEe3vYFAI7nfbFB8sxmFHvPsX7jim/hQBZPibK0RrL8HneX+XgvJepjDkp6Hzu3/THSiW5buGAEy1tVQUxO9m9dCzcy4kqGvwWFDdUNlzBybtWn2t7TlwOqdkhSgPiph+R1GCuyKhbyaads8sE0CGJmGqq+wMe9BAQEBBzxP8SzVLqZ3G40AAAAAElFTkSuQmCC); background-attachment: fixed; background-position: bottom left; background-repeat: no-repeat; } @font-face { font-family: GangOfThree; src: url(data:font/opentype;base64,AAEAAAALAIAAAwAwT1MvMkCdmMYAAAE4AAAAVmNtYXBe0q0dAAALxAAABqBnYXNw//8AAwAAVWgAAAAIZ2x5ZmpKN28AABeAAAApRGhlYWTjYUA1AAAAvAAAADZoaGVhDO8JUQAAAPQAAAAkaG10eN+THY4AAAGQAAAKNGxvY2FasmWGAAASZAAABRxtYXhwBvYAkAAAARgAAAAgbmFtZWNnse4AAEDEAAABwHBvc3RvUMyaAABChAAAEuMAAQAAAAEAACI5PwZfDzz1AAsIAAAAAAC81WDhAAAAAMIClEv/xv6bBaUHcAAAAAkAAQAAAAAAAAABAAAHPv5OAEMIwP/G/7UFpQABAAAAAAAAAAAAAAAAAAACjQABAAACjQA8AAQAIgAEAAIAEAAvAEIAAAQMAAAAAgABAAEECgGQAAUACAWaBTMAAAEbBZoFMwAAA9EAZgISAAACAAAAAAAAAAAAAAAChwAAAAAAAAAAAAAAAEhMICAAQAAg+wIF0/5RATMHPgGyQAAAHwAAAAAAAAYAAQAAAAAAAjkAAAI5AAAB8QBgAlYARQRzAAAEBAAlBx0AAASPAEMBYQBFAnIAggJyAIIDHQAABKwAAAKHADUCywBBAkcAjQKkAE8ETgBEBE4BHAROAFMESwBCBE4APQROAEsETgBMBE4AUAROAFgETgBPAkcAjQKHADUErAAABKwAAASsAAAD+wA5CB8AAAUaAA4EfgBBBN8ANQTBAC0EUwA6BAwAMgUOACsEqQA4AroANQK6ADkEkwA0BAsAJgV7AC8EtQAyBN8AMAR5AC4E6wAxBI8ADwRYACcD9wAoBNsAIAUXAAMFq//8BOz//wQ7AAMEhgArAjkAAAI5AAACOQAAA8EAAARzAAACVAB0BRoADgR+AEEE3wA1BMEALQSLADsEDAAyBQ4AKwSpADgByQBSAroAOQSTADQECwAmBXsALwS1ADIE3wAwBHkALgTrADEEjwAPBFgAJwP3ACgE2wAgBRcAAwWr//wE7P//BDsAAwSGACsCrAAAAhQAAAKsAAAErAAABRoADgVWAAAE3wA1BIsAOwS1ADIE3wAwBNsAIAUaAA4FGgARBRoADgUaAA4FGgAOBHMAAATfADUEiwA7BIsAOwSLADsEiwA7AckAUgHJ/94ByQArAcn/xgS1ADIE3wAwBN8AMATfADAE3wAwBN8AMATbACAE2wAgBNsAIATbACAEcwAAAzMAAARzAAAEcwAABHMAAALNAAAETAAABIUAQwXlAAAF5QAACAAAAAJUAHQCgwAZBGQAAAXAAAMGOQAABbQAAARkAAAEZAAABGQAAARzAAAEnAAAA/QAAAW0AAAGlgAABGQAAAIxAAAC9gAAAuwAAAYlAAAFwAADBOMAAAP7ADkB/gBNBKwAAARkAAAEcwAABGQAAATlAAADtwBIA7cAZQgAAAAFGgARBRoADgTfADAFeAAuBXgALgRzAAAIAAAAAlYARQJWAEUBYQBFAWEARQRkAAAD9AAABAAAAAVWAAABVgAABIYATwKqAAACqgAABAAAAAQAAAAEcwAAAjkAAAHHAAACqgAACAAAAAUaAA4EiwA7BRoADgSLADsEiwA7AckAUgHJACsByf/GAcn/3gTfADAE3wAwBN8AMATbACAE2wAgBNsAIAHJAFICvgCAAtsAAgKqAAACqgAAAqoAAAKqAAADHwDfAqoAAAKqAAACqgAABHMAAAHHAAAFVgAABAAAAATjAAAEAAAAAhQAAAXHAAAEcwAABVYAAAQAAAAFVgAABHMAAASsAAAErAAAAqoAAAKqAAACqgAABqwAAAasAAAGrAAABHMAAAY5AAAEcwAAAjkAAAVWAAAEAAAABccAAAQAAAAFxwAABAAAAARzAAAEawAAAqoAAAVWAAAEcwAABVYAAARzAAAFxwAABOsAAAXHAAAFVgAABHMAAAVWAAAEcwAABHMAAAHHAAAEcwAAAlUAAARzAAACrAAABccAAARzAAAFxwAABHMAAAY5AAAEcwAABccAAAKqAAAFxwAAAqoAAAVWAAAEAAAABOMAAAI5AAAE4wAAAwAAAAXHAAAEcwAABccAAARzAAAE4wAABAAAAATjAAAEAAAABGgAAAY5AAAGYgAABKAAAAR0AAADkQAABPAAAAMpAAAFMAAABGsAAAQAAAAC6wAACMAAAAgAAAAEAAAACAAAAAQAAAAIAAAABAAAAAQAAAAH1QAABcAAAASrAAAE1QAABKwAAATVAAAE1QAABasAAAUAAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAF1QAABNUAAAgAAAAH6wAAB+sAAAfrAAAH6wAABNUAAATVAAAE1QAACCsAAAhrAAAHVQAABgAAAAYAAAAEQAAABUAAAATAAAAEFQAABAAAAAYAAAAF4QAAA40AAATVAAABgAAAAtUAAAcVAAAClgAABNUAAALWAAAC1gAABNUAAALWAAAFVgAABHMAAAXHAAAEAAAABccAAAQAAAAFVgAABHMAAAVWAAAEcwAABVYAAARzAAAGOQAABHMAAAY5AAAEcwAABjkAAARzAAAFxwAABHMAAAXHAAAEcwAAAjkAAAI5AAACOQAAAjkAAAI5AAACOQAAAjkAAAHHAAAEAAAAAccAAAVWAAAEAAAABAAAAARzAAABxwAABccAAARzAAAFyQAABHMAAAY5AAAEcwAABjkAAARzAAAFxwAAAqoAAAVWAAAEAAAABOMAAAI5AAAFxwAABHMAAAXHAAAEcwAABccAAARzAAAFxwAABHMAAAeNAAAFxwAABVYAAAQAAAABxwAABVYAAARzAAAIAAAABx0AAAY5AAAE4wAAAjkAAAeNAAAFxwAAB40AAAXHAAAHjQAABccAAAVWAAAEAAAAAccAAAKqAAAEcwAABM0AAAasAAAGrAAABqwAAAasAAACqgAAAqoAAAKqAAACqgAABVcAAAZGAAAGtAAAAxIAAAYyAAAG2AAABgUAAAHHAAAFVgAABVYAAAVYAAAFVgAABOMAAAXHAAACOQAABVYAAAVYAAAGqgAABccAAAUzAAAGOQAABccAAAVWAAAE8gAABOMAAAVWAAAFVgAABq8AAAX7AAACOQAABVYAAASgAAADkQAABHMAAAHHAAAEYAAABJoAAAQAAAADhwAABHMAAARzAAABxwAABAAAAAQAAAAEnAAABAAAAAOVAAAEcwAABI0AAAPbAAAEYAAABDMAAAW0AAAGPwAAAccAAARgAAAEcwAABGAAAAY/AAAFVwAABusAAARVAAAFwAAABVYAAAI5AAACOQAABAAAAAh1AAAIFQAABtUAAASpAAAFFQAABcAAAAVWAAAFQAAABVYAAARVAAAFawAABVYAAAdjAAAE1QAABcAAAAXAAAAEqQAABUAAAAaqAAAFxwAABjkAAAXAAAAFVgAABccAAATjAAAFFQAABhUAAAVWAAAF6wAABVUAAAdVAAAHgAAABlUAAAcVAAAFQAAABcAAAAgVAAAFxwAABHMAAASVAAAEQAAAAusAAASrAAAEcwAABVoAAAOrAAAEeAAABHgAAAOAAAAEqwAABYAAAARrAAAEcwAABFUAAARzAAAEAAAAA6oAAAQAAAAGlQAABAAAAASVAAAEKwAABmsAAAaVAAAFAAAABcAAAAQrAAAEFQAABgAAAARVAAAEcwAABHMAAALrAAAEFQAABAAAAAHHAAACOQAAAccAAAdAAAAGgAAABHMAAAOAAAAEAAAABGsAAAPpAAADSgAACAAAAAiVAAAFhQAAAAAAAgABAAAAAAAUAAMAAQAAARoAAAEGAAABAAAAAAAAAAECAAAAAgAAAAAAAAAAAAAAAAAAAAEAAAMEBQYHCAkKCwwNDg8QERITFBUWFxgZGhscHR4fICEiIyQlJicoKSorLC0uLzAxMjM0NTY3ODk6Ozw9Pj9AQUJDREVGR0hJSktMTU5PUFFSU1RVVldYWVpbXF1eX2BhAGJjZGVmZ2hpamtsbW5vcHFyc3R1dnd4eXp7fH1+f4CBgoOEhYaHiImKi4yNjo+QkZKTlJWWl5iZmpucnZ6foKGio6SlpqeoqaqrA6ytrq+wsbKztLW2t7i5uru8vb6/wMHCw8TFxsfIycrLzM3Oz9AA0dLT1NXW19jZ2tvc3d7fAAQFhgAAANAAgAAGAFAAfgCjAR8BLwF/AZIB/wLHAskC3QN+A4oDjAOSA5gDoQOmA7ADtQO/A84EDARPBFwEXwSRHoUe8yAVIB4gIiAmIDAgMyA6IDwgPiBEIH8gpCCnIKwhBSETIRYhIiEmIS4hXiGVIagiAiIGIg8iEiIVIhoiHyIpIisiSCJhImUjAiMQIyElACUCJQwlECUUJRglHCUkJSwlNCU8JWwlgCWEJYgljCWTJaElrCWyJbolvCXEJcslzyXZJeYmPCZAJkImYCZjJmYma/AC8AX7Av//AAAAIACgAKUBIAEwAZIB+gLGAskC2AN+A4QDjAOOA5MDmQOjA6cDsQO2A8AEAQQOBFEEXgSQHoAe8iATIBcgICAmIDAgMiA5IDwgPiBEIH8goyCnIKwhBSETIRYhIiEmIS4hWyGQIagiAiIGIg8iESIVIhkiHiIpIisiSCJgImQjAiMQIyAlACUCJQwlECUUJRglHCUkJSwlNCU8JVAlgCWEJYgljCWQJaAlqiWyJbolvCXEJcolzyXYJeYmOiZAJkImYCZjJmUmavAB8AT7Af///+MAAAAAAIQAAP8U/9wAAP4PAAD8oAAA/mn+aAAA/mYAAP5kAAD+YQAA/iv+Kv4p/ij9+ONd4vEAAAAAAADgheCV4VvghOD54ajgd+C3AADgkOAQ4IrgfeF132rfeeC64I7fqN+W3pbeot6LAADepgAAAADfF95x3l8AAN4w3kDeM94k3EbcRdw83DncNtwz3DDcKdwi3BvcFNwB2+7b69vo2+Xb4gAAAADbxtu/277btwAA28Xbpduv20XbQttB2yTbItsh2x4QvhHpBb4AAQAAAM4A1AAAAcYAAAAAAmAAAAJgAAACaAAAAAACcAAAAngAAAJ8AAACggAAAAAAAAAAAAAAAAAAApAClAKiAAAAAAAAAAAAAAAAAAAAAAKWAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAJ8AAACfAJ+AAAAAAAAAnoAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAACUgJUAAAAAAAAAAACUAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAwCjAIQAhQCWAOYAhgCOAIsAnQCpAKQAEACKAQAAgwCTAPAA8QCNAJcAiADCANwA7wCeAKoA8wDyAPQAogCsAMgAxgCtAGIAYwCQAGQAygBlAMcAyQDOAMsAzADNAOcAZgDRAM8A0ACuAGcA7gCRANQA0gDTAGgA6QDrAIkAagBpAGsAbQBsAG4AoABvAHEAcAByAHMAdQB0AHYAdwDoAHgAegB5AHsAfQB8ALcAoQB/AH4AgACBAOoA7AC5AZYBlwECAQMBBAEFAPsA/AGYAZkBmgGbAP0A/gEGAQcBCAD/AZwBnQGeAZ8BoAGhAQkBCgELAQwBogGjAPYA9wD4ANUBigGLAbQBtQG2AbcBuAENAQ4BuQG6AQ8BEAERARIA4ADhARMBFAG7AbwBFQEWAYwBvQG+Ab8BwAHBAcIBFwEYAK8AsAEZARoBwwHEARsBHAEdAR4BxQHGAPkA+gDiAOMBHwEgASEBIgHHAcgByQHKAcsBzAHNAc4BIwEkASUBJgHPAdAB0QHSAdMB1AC6AScBKAEpASoA5ADlAdUA1gDfANkA2gDbAN4A1wDdAe8B8AHxAdwB8gHzAfQBKwH7AfwB/QH+ASwCCAIJAgoBLQEuAhUCFgEvATACjAIhAiIBMQEyAiMBMwIkAiUCJgInAigCKQIqAisAsQCyAooBNAC1ALYAwwHlALMAtADEAIIAwQCHAPUB5wCZAO0AwgClAJIBPwCPAUEBdgGRAZIBkwF3ALgBfAAAABYAFgAWABYALABAAEAAngCeANoA6AECARwBHAEcASwBPAFKAVoBmAGyAd4CFAIyAl4CigKiAtwDBgMcAzIDMgMyAzIDaANoA5YD1AQGBDAEXAR8BKoE1gTyBRAFNgVWBYgFtAXYBggGOAZyBqYGxAbqBxAHSgdyB5QHwAfAB8AHwAfAB8AH0Af+CDwIbgiYCMQI5AkSCT4JTglsCZIJsgnkChAKNApkCpQKzgsCCyALRgtsC6YLzgvwDBwMHAwcDBwMHAxYDFgMmAzMDQoNPA1wDXwNiA2UDaANrA2sDbgNxA3QDdwN6A30DgAODg4aDiYOMg4+DkoOVg5iDm4Oeg6GDpIOkg6SDpIOkg6SDpIOkg7EDsQOxA7EDtQO6g7qDygPKA8oDygPKA8oDygPKA8oDygPKA8oDygPKA8oDygPZg9mD5wPsg+yD7IPsg+yD7IP2BAAEAAQNhB2EKwQ7BEsESwRLBFAEVQRYhFwEXARcBFwEXARcBG0EbQRtBG0EbQRtBG0EbQRtBG0EfASKhJgEpoSzhLmEwITHhM2E2ITkhO+E+4UIhRSFGIUdhSOFI4UjhSOFI4UohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUogACAQAAAAUABQAAAwAHAAAhESERJSERIQEABAD8IAPA/EAFAPsAIATAAAAAAAIAYAAEAa4FUAADAAcAABMhAycXMxEnYAFOWvIB8fIFUPwbA2X++wEAAAAAAgBFA+ACGAV3AAMABwAAEzMRIwEzESNF09MBEMPDBXf+aQGX/mkAAAMAJf83A9UF9wAIABEAOwAAARE2NzY1NCcmAwYHBhUUFxYXFSYnJjU0NzY3NTMVFhcWFwcmJyYnERYXFhUUBwYHESMRJicmJzcWFxYXAkIlH0NCH5Q3K0NDKzeneJCReaVusIA+JfMQGjRClG+QkW+TbsKKQCPyEBo+VQJA/ssMGDFGRjEXAikMHzFHRTEgDMYOWmqYlmtaDtLQC18vN1AYEyUJ/qsTUmqYlmpSE/74AQIEZy43UBcULQQAAQBD/90EUQVPACAAAAEiFhclAyMCNxUEAzU3JyUGFjcXBicuAScRNhcmEiUzEwIHoxypAiUIUAJd/ss1pKX+egpp1GTs3F6DCxh5ehsBmIckBDPUDgT+9P60Af0kAX9zcAIC/EUZ+zg0FoF1AYqeCBoB4gv+5AAAAQBFA+ABGAV3AAMAABMzESNF09MFd/5pAAAAAAEAgv7SAiQGbAAJAAABAhEQEwcCERATAiTukIm7vAZs/ev92/5W/ksBAekB3AHdAdEAAAABAIL+0gIkBmwACQAAExIREAM3EhEQA4LukIm7vP7SAhUCJQGqAbUB/hf+JP4j/i8AAAAAAQA1/8gB1AHOAAMAABMXAyXj8Z3+/gHOXP5WUwAAAAABAEECtQIUA7cAAwAAEyUDIW4Bpi3+WgO2Af7+AAAAAAEAjQBkAY4BoAADAAATIREljgEA/v8BoP7EAQABAE/+pwJQBjoAAwAACQEnAQJQ/ltcAVMF6/i8FQd+AAMARP/2A/oFUAALABcAHwAAEyEWFwMWJyUGNxMmASYXAxY3IRY3EzYHBhc2BxYnBjfOAqt2BwEFhP1ThQoBBgFNcwoBD2ABI1kDAQd5+3yCExOCfxAFUBCO++qgAwEKoAQbk/7+ATv9PUQKDkwCuUEBtBkW7PMdEOYAAAABARz//wMbBVIACwAAATMWFREzAwURFxEjAWznW20B/gJ6VAVSDcP8jP7zAgEQAQMtAAAAAQBTAAAD7QVTABUAABIXBTYXFQYHASU1MxElEQEnBQYPARNboAKNYwICTf34AYvM/GYCgQP+lCoC4AMFUwEBAp/6ZDj9+wFu/ngCASgCkY4DAX4CAQsAAAEAQv/1A/UFTwAcAAATITIXEwYHFgcDFgchBj8CFyETBTclEyEPATUmzgK1cAEBBVtfAQICc/01cwwC8wMBtQL+hgEBdwL+SAH0AQVPjv5cSBoGVP44mAELlPIBYQElAfgBAQtPAdqCAAAAAAIAPQAABC4FUAAKAA0AAAEzETMRJwcjNSERCQEhAvTuTFEB2P05AsX+gAF/BVD8mv7pAdTOARwB7v4SAAEAS//+A/wFTwAXAAATBREhFyUWFxEGByUmJzUzBjczFic2ByFOA6f9SAECbk8BCW79OGwG6hWt8G8PDk79cQVPAv7z3wENeP22jwYDDHHYXQoOnaICAAACAEwAAAP2BVIAEQAVAAABAyEGFxUhFhcRBgchJjURNjcTESUDA54C/ck4CQJYXAwKUv0IVgFdjAH2AQVR/uMBfH4JmP4wxwECmQQYnQL83v7XAQEoAAAAAQBQ//8D9QVQAAgAABMhEQElASUVI1EDpP5N/uwByv423gVQ/vT7uwIEQgKQAAAAAwBYAAAD/QVTABUAGQAdAAATIRYHAxYHFgcRFgchIjcTNjcmNxEmARUhNwERIRG0AvFVAgEDUlUDAVv9D1cBAQJKTQEBARMBhQH+hAF8BVMBnv51YhkTbf6ArQGeAYxgGyBmAYeg/vH9/f3n/vMBDQAAAAACAE8AAAP5BVIAEQAVAAAzEyEyJzUhJicRNjclFhURBgcDEQUTpQQCNjkK/ahcCwlRAvlXAlyN/goBAR58fgmZAc/HAQEDmfvonAIDIgEoAv7aAAACAI0AZAGOA4gAAwAHAAATIRElFyERJY4BAP7/AQEA/v8DiP7EAa3+xAEAAAIANf/IAdQDhwADAAcAABMhESUfAQMlxgEA/v8e8Z3+/gOH/sQBflz+VlMAAgA5AAMDwQVPABgAHAAAEyEWFxMGDwEGFQclNzQ3JTc2BycmFyU1NgEhFQXqAnJiAQIYNK5CAf7dAUABAAEbo4FfBf75IgEMARr+4wVPHVz+yEs5p0B4eALoREH+SksJARNfA+lu+7b6BAAAAgAO/9wFDQW0AA4AEgAAARcHIQMHAQUJASUBJRMhExcBJwJS9h0BjCnYAVf+9/6g/nf+8wGE/uUWAXbOmf7lmgW0XWD+2AH8aVsDrPxcUgOcAQEk/MGo/uSmAAACAEH/vgRHBU8AHgAjAAATIR4BBgc2FxEOAQcGJzcWNgMFFQIlNRYnNSM3FzUjIRU3NidlAnDJVhCH0hgLg17c7GTUaQr+hjX+y10PUAFmagFvgYgMBU8LqMCUCJ7+THWBFjRi+0NFATcC9v6BJP0Bn63/Au3gHEl7AAAAAQA1//IEtgVNABkAAAEEEyEmByEOAR4BJDcXDgEEJAISPwEjPwIDmgEKEP73BIP+nG4LiaEBGniznML+wf743Bgux+4QFywFTT/+tGkK7vTXWxyo35dlBIABWwG8P1lfW3IAAAIALf/zBJsFTwANABMAABMhFxEWCgEEJRM3JxEjIREWPgEDXQNywAxT7f7j/f8CvnBgAYGY3EoOBU8B/aCZ/uf+9T4MARwCOALR/O8Vh8sB1AAAAAEAOv/1BC0FUgAWAAATIQMFFSEDJQYWFyEDBC4BJzUHExc1B2oDw1D+GgIVMP4UD1NhAW4x/keNmRSlKYewBVL+0gKV/vAB2IsB/uUKS62o6QEBEgGcAQABADL/5gPeBVAADQAAEyEDIQM3BQMlEwURNyFjA3tA/jIBJAFxOP6gAf7Ukf8ABVD+4f60iEv+10b95j8ECEMAAQAr/3oE0AVIABcAABMhAyERBjchJwcRBREHBTUHBS4BJxE3BZEEHTL9MQuiAWYB8AIXAf7eb/5TkX4BsP76BUj+1P2FiBPrAQEcAfzPTjjuaAEVs6gCVVgBAAABADj/4QSYBUwAFgAAEyERJRElETMTIxEOAiMDNjcRJScRBTgBLgG4AS40GEweWr9gAlwW/pFQ/tQFTP4wAwHJAv4p/u3+SFo7HwEIBkYBFwF//TUzAAAAAQA1//4CdgVQAAwAABMhAyMRMwMhExcTNyFVAiEoWHAQ/d8bdQJ+/vMFUP7g/OX+6QEZAQLTRwABADn/AQJ/BU0ADAAAEyERDgEEBwM+AQM3IakB1gU5/u7eGIygDoj+hgVN++uIx9EXASwMzQLkRgAAAAABADT/5QSSBW8AEAAAARcBEhY3Ew4BJgEHESERIRMDW8/+ROB/WG1txcb+9D3+4wEcAQVvz/5B/mkYSv7zdRVIAfZC/h4FUf4VAAAAAQAmAAMD3gVTAA8AABMhAxcPARUlAyUTMzUjPwGYASkBqh2FAhYf/GctP2IaTAVT/TUC8AFZAf7GAgE1WfQBAAEAL//pBS4FsAAZAAABBRUhFhcDDgEjERYDESMRBRMjEQUDNyMTIQIWATwBU3wNAjO4h1INqv6+AYT+vgFti1MBlAWwA2ITd/x12HUBLwcBigGB/BA5BCn7/ykD8UEBJwAAAAABADL/7wSDBU0AFgAAEyEHNx4BHwEDIREWBicRNic2JgAnESE0ASIBIr+3Yg4BASAHk+RkEAE9/sGQ/t0FTdhUM3+QKAHs+55NrQwBGwh5RJ8BCSj8UAAAAgAw//wEsgVTAAwAEAAAARU3IRYDEQYHIQYnEQURIREBVk4ClHoHGKP9BaobASYCLgVTg4Mi/sr8e24FB5sEf+r8/gMCAAAAAgAu//IEQgVMABIAFgAAARYXAwYnIScRDgEnAxYnETcnEwETBREDpZgFAg6X/mVgGJ6tAUgHnOs7AS8BAXsFTByu/gScA6z+OphJAgEHEdoCE1cBAR3+4v7+AQEDAAAAAgAx/psEvQVSABEAFgAAEyEWBwMGByEFAyUTBSYnETcHJRE3IRF2A7eQDAELmv7JAZ07/dU1/ntoIHl7ASpEAeoFUkHC/GywCln+82UBAQEP1wL9RAEF/IB9AwMAAAAAAgAP/9AEdgVQABgAHgAAEyEWFwMOAQcXFhcDJyYDJwcDBREnNxM3ByERJTY9AW0DXlsiAh1ujU9YoRehna8/nQH+6G5sAonYAWgBK20FUAtq/m6LXz5+ihX+zB4gASh4Sv6bAgEK60QBpUwB/n92KFmKAAABACf//wQ7BVMAGgAAEyUeARUFNAcjARYHBgclLgEnJRY3BTYnATcjXwLmeUf++rHOAnVGNDTN/gdYZhwBEgtRAQs9Uf23kLgFUgEe0k80Xg79mFrViBIBHaV6XXIEAQ5KAjxyAAAAAAEAKP/KA9IFUAANAAATIQMhEQYXAwYmJxE3JUYDjCX+vRF3SYm9A4H+aQVQ/tT9d5cc/uYEupkCyz4BAAEAIP/jBKcFYAAQAAABAhIWJQMFEQU1DwEEJAITNwF1OVO2AUEBASL+3jQ//uf+4boREQVg/fL+mtA2BAAR+uIdpbUOBagCAgHluQABAAP/YQUJBWEADwAACQE2EicHEyUWCgEHJxcFAQEqAWy3bA2SIQGVOUyoqJBE/s/+EwVh/AGUAWLRAQEpAuj+Cf6xyTe/cwWwAAAAAf/8/2oFpQVXABwAAAETPgEnIxMFEz4BJyMTBRICBgcnEwUDBgcnEwUBAR+oeiY1dC0BWapKRjRsMQE7W09xcVBD/uN7KVhCOP70/sQFV/zIZ9vIASYB/Oku/c8BHgH+Cv62yGM3/sdoAjOCRSD+3HcFqAAB////mwTqBXYAEAAACQE2EwUCAwEHAQ4BByckNwEBCgGysGcBF4X+AWv8/sNfxajOAVej/iEFdv22/QEycP6k/rz+GckBsXGoXdrhqgJ/AAEAA/+GBBQFTQAMAAATATYSJwUKAQAHAyUB3AF8aFETARYF2f7D33cBAf5fBU39F2kBX/kL/e7+W/6xjgEa0gMjAAAAAQAr//MEaQVPABQAABMhAwQAByU2NxcOASchBi4BNgA3IZADmCH+5v6aEQGYTy7eU7SJ/hZOXxQgASjX/d4FT/7Znf4+pAEbXJO1Yg0HXKm6Abu4AAAAAAEAdAXjAewHOgADAAABByU3AexU/tyMBkZj6m0AAAAAAgAO/9wFDQW0AA4AEgAAARcHIQMHAQUJASUBJRMhExcBJwJS9h0BjCnYAVf+9/6g/nf+8wGE/uUWAXbOmf7lmgW0XWD+2AH8aVsDrPxcUgOcAQEk/MGo/uSmAAACAEH/vgRHBU8AHgAjAAATIR4BBgc2FxEOAQcGJzcWNgMFFQIlNRYnNSM3FzUjIRU3NidlAnDJVhCH0hgLg17c7GTUaQr+hjX+y10PUAFmagFvgYgMBU8LqMCUCJ7+THWBFjRi+0NFATcC9v6BJP0Bn63/Au3gHEl7AAAAAQA1//IEtgVNABkAAAEEEyEmByEOAR4BJDcXDgEEJAISPwEjPwIDmgEKEP73BIP+nG4LiaEBGniznML+wf743Bgux+4QFywFTT/+tGkK7vTXWxyo35dlBIABWwG8P1lfW3IAAAIALf/zBJsFTwANABMAABMhFxEWCgEEJRM3JxEjIREWPgEDXQNywAxT7f7j/f8CvnBgAYGY3EoOBU8B/aCZ/uf+9T4MARwCOALR/O8Vh8sB1AAAAAEAO/+pBH0FSAAUAAATIREFFQUDIRElEwUDNxEjEzcnNwU7A939xQHEIP5cAkxU++4gdnwcYgGh/tgFSP7jAZ8B/u3+n0T+0oMBLhQBigEBAXQ7AQAAAAABADL/5gPeBVAADQAAEyEDIQM3BQMlEwURNyFjA3tA/jIBJAFxOP6gAf7Ukf8ABVD+4f60iEv+10b95j8ECEMAAQAr/3oE0AVIABcAABMhAyERBjchJwcRBREHBTUHBS4BJxE3BZEEHTL9MQuiAWYB8AIXAf7eb/5TkX4BsP76BUj+1P2FiBPrAQEcAfzPTjjuaAEVs6gCVVgBAAABADj/4QSYBUwAFgAAEyERJRElETMTIxEOAiMDNjcRJScRBTgBLgG4AS40GEweWr9gAlwW/pFQ/tQFTP4wAwHJAv4p/u3+SFo7HwEIBkYBFwF//TUzAAAAAQBSAAEBgQVXAAMAAAEDIQMBgQH+0wEFV/qqBSgAAAABADn/AQJ/BU0ADAAAEyERDgEEBwM+AQM3IakB1gU5/u7eGIygDoj+hgVN++uIx9EXASwMzQLkRgAAAAABADT/5QSSBW8AEAAAARcBEhY3Ew4BJgEHESERIRMDW8/+ROB/WG1txcb+9D3+4wEcAQVvz/5B/mkYSv7zdRVIAfZC/h4FUf4VAAAAAQAmAAMD3gVTAA8AABMhAxcPARUlAyUTMzUjPwGYASkBqh2FAhYf/GctP2IaTAVT/TUC8AFZAf7GAgE1WfQBAAEAL//pBS4FsAAZAAABBRUhFhcDDgEjERYDESMRBRMjEQUDNyMTIQIWATwBU3wNAjO4h1INqv6+AYT+vgFti1MBlAWwA2ITd/x12HUBLwcBigGB/BA5BCn7/ykD8UEBJwAAAAABADL/7wSDBU0AFgAAEyEHNx4BHwEDIREWBicRNic2JgAnESE0ASIBIr+3Yg4BASAHk+RkEAE9/sGQ/t0FTdhUM3+QKAHs+55NrQwBGwh5RJ8BCSj8UAAAAgAw//wEsgVTAAwAEAAAARU3IRYDEQYHIQYnEQURIREBVk4ClHoHGKP9BaobASYCLgVTg4Mi/sr8e24FB5sEf+r8/gMCAAAAAgAu//IEQgVMABIAFgAAARYXAwYnIScRDgEnAxYnETcnEwETBREDpZgFAg6X/mVgGJ6tAUgHnOs7AS8BAXsFTByu/gScA6z+OphJAgEHEdoCE1cBAR3+4v7+AQEDAAAAAgAx/psEvQVSABEAFgAAEyEWBwMGByEFAyUTBSYnETcHJRE3IRF2A7eQDAELmv7JAZ07/dU1/ntoIHl7ASpEAeoFUkHC/GywCln+82UBAQEP1wL9RAEF/IB9AwMAAAAAAgAP/9AEdgVQABgAHgAAEyEWFwMOAQcXFhcDJyYDJwcDBREnNxM3ByERJTY9AW0DXlsiAh1ujU9YoRehna8/nQH+6G5sAonYAWgBK20FUAtq/m6LXz5+ihX+zB4gASh4Sv6bAgEK60QBpUwB/n92KFmKAAABACf//wQ7BVMAGgAAEyUeARUFNAcjARYHBgclLgEnJRY3BTYnATcjXwLmeUf++rHOAnVGNDTN/gdYZhwBEgtRAQs9Uf23kLgFUgEe0k80Xg79mFrViBIBHaV6XXIEAQ5KAjxyAAAAAAEAKP/KA9IFUAANAAATIQMhEQYXAwYmJxE3JUYDjCX+vRF3SYm9A4H+aQVQ/tT9d5cc/uYEupkCyz4BAAEAIP/jBKcFYAAQAAABAhIWJQMFEQU1DwEEJAITNwF1OVO2AUEBASL+3jQ//uf+4boREQVg/fL+mtA2BAAR+uIdpbUOBagCAgHluQABAAP/YQUJBWEADwAACQE2EicHEyUWCgEHJxcFAQEqAWy3bA2SIQGVOUyoqJBE/s/+EwVh/AGUAWLRAQEpAuj+Cf6xyTe/cwWwAAAAAf/8/2oFpQVXABwAAAETPgEnIxMFEz4BJyMTBRICBgcnEwUDBgcnEwUBAR+oeiY1dC0BWapKRjRsMQE7W09xcVBD/uN7KVhCOP70/sQFV/zIZ9vIASYB/Oku/c8BHgH+Cv62yGM3/sdoAjOCRSD+3HcFqAAB////mwTqBXYAEAAACQE2EwUCAwEHAQ4BByckNwEBCgGysGcBF4X+AWv8/sNfxajOAVej/iEFdv22/QEycP6k/rz+GckBsXGoXdrhqgJ/AAEAA/+GBBQFTQAMAAATATYSJwUKAQAHAyUB3AF8aFETARYF2f7D33cBAf5fBU39F2kBX/kL/e7+W/6xjgEa0gMjAAAAAQAr//MEaQVPABQAABMhAwQAByU2NxcOASchBi4BNgA3IZADmCH+5v6aEQGYTy7eU7SJ/hZOXxQgASjX/d4FT/7Znf4+pAEbXJO1Yg0HXKm6Abu4AAAAAAQADv/cBQ0HBAAOABIAFgAaAAABFwchAwcBBQkBJQElEyETFwEnEwcnNzMXBycCUvYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5Zq4fXzpd+2DdQW0XWD+2AH8aVsDrPxcUgOcAQEk/MGo/uSmBXEZ5C4z4x0AAAIANf6fBLYFTQAZACEAAAEEEyEmByEOAR4BJDcXDgEEJAISPwEjPwIBNxYVFAUnJAOaAQoQ/vcEg/6cbguJoQEaeLOcwv7B/vjcGC7H7hAXLAFrfpb+7CUBHgVNP/60aQru9NdbHKjfl2UEgAFbAbw/WV9bcvqRVJhfghpdFwAAAgA7/6kEfQc6ABQAGAAAEyERBRUFAyERJRMFAzcRIxM3JzcFARcFJzsD3f3FAcQg/lwCTFT77iB2fBxiAaH+2AKOjP7cVAVI/uMBnwH+7f6fRP7SgwEuFAGKAQEBdDsBAxVt6WIAAAACADL/7wSDB28AFgAgAAATIQc3HgEfAQMhERYGJxE2JzYmACcRIQAHJxIXFjcXAic0ASIBIr+3Yg4BASAHk+RkEAE9/sGQ/t0BRUNLdOT1NUt/6AVN2FQzf5AoAez7nk2tDAEbCHlEnwEJKPxQBrfPiQEDf5TOiP7vmwAABAAw//wEsgcFAAwAEAAUABgAAAEVNyEWAxEGByEGJxEFESERAQcnPwEXBycBVk4ClHoHGKP9BaobASYCLv7KfXzpd+2DdQVTg4Mi/sr8e24FB5sEf+r8/gMCAeAZ4y4BM+MdAAMAIP/jBKcHBAAQABQAGAAAAQISFiUDBREFNQ8BBCQCEzclByc3MxcHJwF1OVO2AUEBASL+3jQ//uf+4boREQIdfXzpd+2DdQVg/fL+mtA2BAAR+uIdpbUOBagCAgHlueEZ4y4z4x3//wAO/9wFDQc6AiIARAAAAAMAjQHxAAD//wAR/9wFEAc6AiIARAMAAAMAQwEZAAD//wAO/9wFDQc6AiIARAAAAAMA1gFBAAD//wAO/9wFDQcEAiIARAAAAAMAjgFbAAD//wAO/9wFDQdwAiIARAAAAAMA1wE0AAD//wA1/p8EtgVNAiIARgAAAAMA3AEOAAD//wA7/6kEfQc6AiIASAAAAAMAjQFpAAD//wA7/6kEfQc6AiIASAAAAAMAQwC9AAD//wA7/6kEfQc6AiIASAAAAAMA1gDsAAD//wA7/6kEfQcEAiIASAAAAAMAjgEaAAD//wBSAAECDAc6AiIA1QAAAAIAjSAAAAD////eAAEBggc6AiIA1QEAAAMAQ/9qAAD//wArAAEBpQc6AiIA1QAAAEIA1sUAMzNAAAAA////xgABAhQHBAIiANUAAAACAI6tAAAA//8AMv/vBIMHcAIiAFEAAAADANcA5wAA//8AMP/8BLIHOgIiAFIAAAADAI0BwgAA//8AMP/8BLIHOgIiAFIAAAADAEMBBAAA//8AMP/8BLIHOgIiAFIAAAADANYBDQAA//8AMP/8BLIHBAIiAFIAAAADAI4BPAAA//8AMP/8BLIHcAIiAFIAAAADANcBHQAA//8AIP/jBKcHOgIiAFgAAAADAI0B5AAA//8AIP/jBKcHOgIiAFgAAAADAEMBAQAA//8AIP/jBKcHOgIiAFgAAAADANYBHAAA//8AIP/jBKcHBAIiAFgAAAADAI4BTQAAAAEAQ/++BFkFUwAXAAABBwYHEyUTAi0BEwMEEgYHBicDFjYmJScCwmf7AQH+5AECAh0BPHnSAQURoF7chwHUaQv+8FQENAIygPxcPwNiAZ80A/7o/roW/eG4FjREAS9MRd8B0QABAHQF4wHsBzoAAwAAARcFJwFgjP7cVAc6bepjAAAAAAIAGQXuAmcHBAADAAcAAAEHJzczFwcnARJ8fep27oR1BgwZ4y4z4x0AAAAAAgAD/+UFowW0ABoAHgAAAQMlASUTITcXByEDBRUhAyUGFhczAwQuASc1Ew8BFwHm1v7zAYT+5RYBdk/2HAKCUP6ZAZYw/pMPU2HwMf7FjZkUCy1ZhgHi/gNRA5wBASS9XV7+0gLY/vABPIsB/uYKSq2oTQHoA9QBAAAAAAIAA//lBaMFtAAaAB4AAAEDJQElEyE3FwchAwUVIQMlBhYXMwMELgEnNRMPARcB5tb+8wGE/uUWAXZP9hwCglD+mQGWMP6TD1Nh8DH+xY2ZFAstWYYB4v4DUQOcAQEkvV1e/tIC2P7wATyLAf7mCkqtqE0B6APUAQAAAAACADkAAwPBBU8AGAAcAAAlISYnAzY/ATY1NwUHFAcFBwY3FxYnBRUGASE1JQMQ/Y5iAQIYNK5CAQEjAUD/AAEbo4FfBQEHIv70/uYBHQMdXAE4SzmnQHh4AuhEQf5KSwkBE18D6W4ESvoEAAACAE0ABAGbBVAAAwAHAAAlIRMXJyMRFwGb/rJa8gHx8gQD5QNlAQUBAAAAAAIASAE8A1YEcQAGAA0AABMBFwkBBwElARcJAQcBSAGBWP7FATtY/n8BNQGBWP7FATtY/n8C5wGKX/67/rxNAY8bAYtg/rv+vEwBjwACAGUBPANzBHEABgANAAAJAScJATcBBQEnCQE3AQNz/n9YATv+xVgBgf7L/n9YATv+xVgBgQLL/nFNAUQBRGD+dh3+ckwBRAFFX/52AAAAAAMAEf/cBRAHOgAOABIAFgAAARcHIQMHAQUJASUBJRMhExcBJwEHJTcCVfYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5ZoBTVT+3IwFtF1g/tgB/GlbA6z8XFIDnAEBJPzBqP7kpgWsY+ptAAMADv/cBQ0HcAAOABIAHAAAARcHIQMHAQUJASUBJRMhExcBJxIHJxIXFjcXAicCUvYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5ZoPQ0t05PU2Sn7pBbRdYP7YAfxpWwOs/FxSA5wBAST8waj+5KYGGM6JAQN/lc+J/vCbAAAAAwAw//wEsgdvAAwAEAAaAAABFTchFgMRBgchBicRBREhEQAHJxIXFjcXAicBVk4ClHoHGKP9BaobASYCLv4pQ0tz5fQ2S3/oBVODgyL+yvx7bgUHmwR/6vz+AwIChs+JAQN/lM6I/u+bAAAAAgAu//4FSgVTAAMAIgAAAREhERMWByEGJxElFTchMhclAwUVJQMhBgcVFhcWFzcDJSYBVAEfugyF/j+qGwEmTgGFAQECIVD+qgGFMP6kAgEEGilh3jH+/4oELPz+AwL8THIDBZkEfz2DgwEB/tIDlQH+8B0aXl8pRgEB/uUCDgACAC7//gVKBVMAAwAiAAABESERExYHIQYnESUVNyEyFyUDBRUlAyEGBxUWFxYXNwMlJgFUAR+6DIX+P6obASZOAYUBAQIhUP6qAYUw/qQCAQQaKWHeMf7/igQs/P4DAvxMcgMFmQR/PYODAQH+0gOVAf7wHRpeXylGAQH+5QIOAAIARQPgAhgFdwADAAcAABMzESMBMxEjRdPTARDDwwV3/mkBl/5pAAACAEUD4AIYBXcAAwAHAAATMxEjATMRI0XT0wEQw8MFd/5pAZf+aQAAAQBFA+ABGAV3AAMAABMzESNF09MFd/5pAAAAAAEARQPgARgFdwADAAATMxEjRdPTBXf+aQAAAAABAE8AAgQhBUcALQAAEzY3NiEyFxEmIyIHBgchFSEGFRQXIRUhFhcWMzI3EQYjICcmJyM1MyY1NDcjNcUwb8QBGXhoYn6teSEYAjv9iwcBAnv9qx41ea19Y2h4/urFhCxnUgEEVQOHi3DFI/7hQHkhJJImKRAPlD80ekH+3yTGg6iUDg4qKJIAAwAO/9wFDQc6AA4AEgAaAAABFwchAwcBBQkBJQElEyETFwEnAQcnByc3FzcCUvYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5ZoB5VOZmVTsAQEFtF1g/tgB/GlbA6z8XFIDnAEBJPzBqP7kpgWsY3p6Y/QBAQAAAgA7/6kEfQc6ABQAHAAAEyERBRUFAyERJRMFAzcRIxM3JzcFAQcnByc3Fzc7A939xQHEIP5cAkxU++4gdnwcYgGh/tgDClOZmVTsAQEFSP7jAZ8B/u3+n0T+0oMBLhQBigEBAXQ7AQIhY3t7Y/QBAQAAAAADAA7/3AUNBzoADgASABYAAAEXByEDBwEFCQElASUTIRMXAScBFwUnAlL2HQGMKdgBV/73/qD+d/7zAYT+5RYBds6Z/uWaAZyL/txTBbRdYP7YAfxpWwOs/FxSA5wBAST8waj+5KYGoG3qYwADADv/qQR9BwUAFAAYABwAABMhEQUVBQMhESUTBQM3ESMTNyc3BQEHJz8BFwcnOwPd/cUBxCD+XAJMVPvuIHZ8HGIBof7YAfF9fOl37YN1BUj+4wGfAf7t/p9E/tKDAS4UAYoBAQF0OwEB5xnjLgEz4x0AAAIAO/+pBH0HOgAUABgAABMhEQUVBQMhESUTBQM3ESMTNyc3BQEHJTc7A939xQHEIP5cAkxU++4gdnwcYgGh/tgCblT+3IwFSP7jAZ8B/u3+n0T+0oMBLhQBigEBAXQ7AQIhY+ptAAAAAgBSAAECCwc6AAMABwAAAQMhAwEXBScBgQH+0wEBLov+3FMFV/qqBSgCEW3qYwAAAgArAAEBpQc6AAMACwAAAQMhEQEHJwcnNxc1AYEB/tIBU0J6e0O9AQVX+qoFKAEdY3t7Y/QBAQAD/8YAAQIUBwQAAwAHAAsAAAERIQM3Byc3MxcHJwGB/tIBbXx96nbuhHUFV/qqBSjjGeMuM+MdAAL/3gABAYIHOgADAAcAAAEDIQMBByU3AYIB/tMBAQNU/tyMBVf6qgUoAR5j6W0AAAMAMP/8BLIHOgAMABAAFAAAARU3IRYDEQYHIQYnEQURIREDFwUnAVZOApR6Bxij/QWqGwEmAi5ijP7cVAVTg4Mi/sr8e24FB5sEf+r8/gMCAw5t6mMAAAADADD//ASyBzoADAAQABgAAAEVNyEWAxEGByEGJxEFESERAwcnByc3OwEBVk4ClHoHGKP9BaobASYCLh5TmZlU7AEBBVODgyL+yvx7bgUHmwR/6vz+AwICGmN7e2P0AAADADD//ASyBzoADAAQABQAAAEVNyEWAxEGByEGJxEFESERAwclNwFWTgKUegcYo/0FqhsBJgIulFT+3IwFU4ODIv7K/HtuBQebBH/q/P4DAgIaYultAAAAAgAg/+MEpwc6ABAAFAAAAQISFiUDBREFNQ8BBCQCEzcBFwUnAXU5U7YBQQEBIv7eND/+5/7huhERAwKM/txUBWD98v6a0DYEABH64h2ltQ4FqAICAeW5Ag9t6mMAAAAAAgAg/+MEpwc6ABAAGAAAAQISFiUDBREFNQ8BBCQCEzcBBycHJzc7AQF1OVO2AUEBASL+3jQ//uf+4boREQMzU5mZVOwBAQVg/fL+mtA2BAAR+uIdpbUOBagCAgHluQEbY3t7Y/QAAAACACD/4wSnBzoAEAAUAAABAhIWJQMFEQU1DwEEJAITNwEHJTcBdTlTtgFBAQEi/t40P/7n/uG6ERECq1T+3IwFYP3y/prQNgQAEfriHaW1DgWoAgIB5bkBG2LpbQAAAAABAFIAAQGBBVcAAwAAAQMhAwGBAf7TAQVX+qoFKAAAAAEAgAXjAlkHOgAHAAABBycHJzcXNwJZU5mZVOwBAQZGY3t7Y/QBAQABAAIFkgLPB3AACQAAEgcnEhcWNxcCJ5BDS3Tk9TZKfukGss6IAQSAlM+J/vCbAAABAN/+nwIYADIABwAABTcWFRQFJyQBBH6W/uwlAR4iVJhfghpdFwAAAAAKAH4AAQAAAAAACgBKAAAAAwABBAkAAAAeAJAAAwABBAkAAQAaAK4AAwABBAkAAgAOAEoAAwABBAkAAwAaAK4AAwABBAkABAAaAK4AAwABBAkABQAiAFgAAwABBAkABgAWAHoAAwABBAkABwAeAJAAAwABBAkACgCUAK5HYW5nIE9mIFRocmVlIGlzIGNyZWF0ZWQgd2l0aCB0aGUgRm9udCBDcmVhdG9yIFByb2dyYW0gZnJvbSBIaWdoLUxvZ2ljLmNvbQBSAGUAZwB1AGwAYQByAFUAcABkAGEAdABlAGQAIABGAGUAYgAuACAAMgAwADAANwBHAGEAbgBnAG8AZgBUAGgAcgBlAGUAMgAwADAANwAgAFYAaQBjACAARgBpAGUAZwBlAHIARwBhAG4AZwAgAG8AZgAgAFQAaAByAGUAZQAgAGkAcwAgAGMAcgBlAGEAdABlAGQAIAB3AGkAdABoACAAdABoAGUAIABGAG8AbgB0ACAAQwByAGUAYQB0AG8AcgAgAFAAcgBvAGcAcgBhAG0AIABmAHIAbwBtACAASABpAGcAaAAtAEwAbwBnAGkAYwAuAGMAbwBtAAIAAAAAAAD/JwCWAAAAAAAAAAAAAAAAAAAAAAAAAAACjQAAAQIBAwADAAQABQAGAAcACAAJAAoACwAMAA0ADgAPABAAEQASABMAFAAVABYAFwAYABkAGgAbABwAHQAeAB8AIAAhACIAIwAkACUAJgAnACgAKQAqACsALAAtAC4ALwAwADEAMgAzADQANQA2ADcAOAA5ADoAOwA8AD0APgA/AEAAQQBCAEMARABFAEYARwBIAEkASgBLAEwATQBOAE8AUABRAFIAUwBUAFUAVgBXAFgAWQBaAFsAXABdAF4AXwBgAGEAYgBjAGQAZQBmAGcAaABpAGoAawBsAG0AbgBvAHAAcQByAHMAdAB1AHYAdwB4AHkAegB7AHwAfQB+AH8AgACBAIIAgwCEAIUAhgCHAIgAiQCKAIsAjACNAI4AjwCQAJEAkgCTAJQAlQCWAQQAmACZAJoBBQCcAJ0AngEGAKAAoQCiAKMApAClAKYApwCoAKkAqgCrAK0ArgCvALAAsQCyALMAtAC1ALYAtwC4ALkAugC7ALwBBwC+AL8AwADBAMIAwwDEAMUAxgDHAMgAyQDKAMsAzADNAM4AzwDQANEA0wDUANUA1gDXANgA2QDaANsA3ADdAN4A3wDgAOEA4gDjAOQA5QDmAOcA6ADpAOoA6wDsAO0A7gDvAPAA8QDyAPMA9AD1APYA9wD4APkA+gD7APwA/QD+AP8BAAEIAQkBCgELAQwBDQEOAQ8BEAERARIBEwEUARUBFgEXARgBGQEaARsBHAEdAR4BHwEgASEBIgEjASQBJQEmAScBKAEpASoBKwEsAS0BLgEvATABMQEyATMBNAE1ATYBNwE4ATkBOgE7ATwBPQE+AT8BQAFBAUIBQwFEAUUBRgFHAUgBSQFKAUsBTAFNAU4BTwFQAVEBUgFTAVQBVQFWAVcBWAFZAVoBWwFcAV0BXgFfAWABYQFiAWMBZAFlAWYBZwFoAWkBagFrAWwBbQFuAW8BcAFxAXIBcwF0AXUBdgF3AXgBeQF6AXsBfAF9AX4BfwGAAYEBggGDAYQBhQGGAYcBiAGJAYoBiwGMAY0BjgGPAZABkQGSAZMBlAGVAZYBlwGYAZkBmgGbAZwBnQGeAZ8BoAGhAaIBowGkAaUBpgGnAagBqQGqAasBrAGtAa4BrwGwAbEBsgGzAbQBtQG2AbcBuAG5AboBuwG8Ab0BvgG/AcABwQHCAcMBxAHFAcYBxwHIAckBygHLAcwBzQHOAc8B0AHRAdIB0wHUAdUB1gHXAdgB2QHaAdsB3AHdAd4B3wHgAeEB4gHjAeQB5QHmAecB6AHpAeoB6wHsAe0B7gHvAfAB8QHyAfMB9AH1AfYB9wH4AfkB+gH7AfwB/QH+Af8CAAIBAgICAwCoAgQCBQIGAgcCCAIJAgoCCwIMAg0CDgIPAhACEQISAhMCFACfAhUCFgIXAhgCGQIaAhsCHAIdAh4CHwIgAiECIgIjAJcCJAIlAiYCJwIoAikCKgIrAiwCLQIuAi8CMAIxAjICMwI0AjUCNgI3AjgCOQI6AjsCPAI9Aj4CPwJAAkECQgJDAkQCRQJGAkcCSAJJAkoCSwJMAk0CTgJPAlACUQJSAlMCVAJVAlYCVwJYAlkCWgJbAlwCXQJeAl8CYAJhAmICYwJkAmUCZgJnAmgCaQJqAmsCbAJtAm4CbwJwAnECcgJzAnQCdQJ2AncCeAJ5AnoCewJ8An0CfgJ/AoACgQKCAoMChAKFAoYChwKIAokCigKLAowCjQKOAo8CkAKRAJsFLm51bGwQbm9ubWFya2luZ3JldHVybgNtdTEDcGkxA09obQRFdXJvB2RtYWNyb24Jb3ZlcnNjb3JlBm1pZGRvdAZBYnJldmUGYWJyZXZlB0FvZ29uZWsHYW9nb25lawZEY2Fyb24GZGNhcm9uBkRzbGFzaAdFb2dvbmVrB2VvZ29uZWsGRWNhcm9uBmVjYXJvbgZMYWN1dGUGbGFjdXRlBkxjYXJvbgZsY2Fyb24ETGRvdARsZG90Bk5hY3V0ZQZuYWN1dGUGTmNhcm9uBm5jYXJvbglPZGJsYWN1dGUJb2RibGFjdXRlBlJhY3V0ZQZyYWN1dGUGUmNhcm9uBnJjYXJvbgZTYWN1dGUGc2FjdXRlCFRjZWRpbGxhCHRjZWRpbGxhBlRjYXJvbgZ0Y2Fyb24FVXJpbmcFdXJpbmcJVWRibGFjdXRlCXVkYmxhY3V0ZQZaYWN1dGUGemFjdXRlBFpkb3QEemRvdAVHYW1tYQVUaGV0YQNQaGkFYWxwaGEFZGVsdGEHZXBzaWxvbgVzaWdtYQN0YXUDcGhpDXVuZGVyc2NvcmVkYmwJZXhjbGFtZGJsCW5zdXBlcmlvcgZwZXNldGEJYXJyb3dsZWZ0B2Fycm93dXAKYXJyb3dyaWdodAlhcnJvd2Rvd24JYXJyb3dib3RoCWFycm93dXBkbgxhcnJvd3VwZG5ic2UKb3J0aG9nb25hbAxpbnRlcnNlY3Rpb24LZXF1aXZhbGVuY2UFaG91c2UNcmV2bG9naWNhbG5vdAppbnRlZ3JhbHRwCmludGVncmFsYnQIU0YxMDAwMDAIU0YxMTAwMDAIU0YwMTAwMDAIU0YwMzAwMDAIU0YwMjAwMDAIU0YwNDAwMDAIU0YwODAwMDAIU0YwOTAwMDAIU0YwNjAwMDAIU0YwNzAwMDAIU0YwNTAwMDAIU0Y0MzAwMDAIU0YyNDAwMDAIU0Y1MTAwMDAIU0Y1MjAwMDAIU0YzOTAwMDAIU0YyMjAwMDAIU0YyMTAwMDAIU0YyNTAwMDAIU0Y1MDAwMDAIU0Y0OTAwMDAIU0YzODAwMDAIU0YyODAwMDAIU0YyNzAwMDAIU0YyNjAwMDAIU0YzNjAwMDAIU0YzNzAwMDAIU0Y0MjAwMDAIU0YxOTAwMDAIU0YyMDAwMDAIU0YyMzAwMDAIU0Y0NzAwMDAIU0Y0ODAwMDAIU0Y0MTAwMDAIU0Y0NTAwMDAIU0Y0NjAwMDAIU0Y0MDAwMDAIU0Y1NDAwMDAIU0Y1MzAwMDAIU0Y0NDAwMDAHdXBibG9jawdkbmJsb2NrBWJsb2NrB2xmYmxvY2sHcnRibG9jawdsdHNoYWRlBXNoYWRlB2Rrc2hhZGUJZmlsbGVkYm94CmZpbGxlZHJlY3QHdHJpYWd1cAd0cmlhZ3J0B3RyaWFnZG4HdHJpYWdsZgZjaXJjbGUJaW52YnVsbGV0CWludmNpcmNsZQlzbWlsZWZhY2UMaW52c21pbGVmYWNlA3N1bgZmZW1hbGUEbWFsZQVzcGFkZQRjbHViBWhlYXJ0B2RpYW1vbmQLbXVzaWNhbG5vdGUObXVzaWNhbG5vdGVkYmwCSUoCaWoLbmFwb3N0cm9waGUGbWludXRlBnNlY29uZAlhZmlpNjEyNDgJYWZpaTYxMjg5BkgyMjA3MwZIMTg1NDMGSDE4NTUxBkgxODUzMwpvcGVuYnVsbGV0B0FtYWNyb24HYW1hY3JvbgtDY2lyY3VtZmxleAtjY2lyY3VtZmxleARDZG90BGNkb3QHRW1hY3JvbgdlbWFjcm9uBkVicmV2ZQZlYnJldmUERWRvdARlZG90C0djaXJjdW1mbGV4C2djaXJjdW1mbGV4BEdkb3QEZ2RvdAhHY2VkaWxsYQhnY2VkaWxsYQtIY2lyY3VtZmxleAtoY2lyY3VtZmxleARIYmFyBGhiYXIGSXRpbGRlBml0aWxkZQdJbWFjcm9uB2ltYWNyb24GSWJyZXZlBmlicmV2ZQdJb2dvbmVrB2lvZ29uZWsLSmNpcmN1bWZsZXgLamNpcmN1bWZsZXgIS2NlZGlsbGEIa2NlZGlsbGEMa2dyZWVubGFuZGljCExjZWRpbGxhCGxjZWRpbGxhCE5jZWRpbGxhCG5jZWRpbGxhA0VuZwNlbmcHT21hY3JvbgdvbWFjcm9uBk9icmV2ZQZvYnJldmUIUmNlZGlsbGEIcmNlZGlsbGELU2NpcmN1bWZsZXgLc2NpcmN1bWZsZXgEVGJhcgR0YmFyBlV0aWxkZQZ1dGlsZGUHVW1hY3Jvbgd1bWFjcm9uBlVicmV2ZQZ1YnJldmUHVW9nb25lawd1b2dvbmVrC1djaXJjdW1mbGV4C3djaXJjdW1mbGV4C1ljaXJjdW1mbGV4C3ljaXJjdW1mbGV4BWxvbmdzCkFyaW5nYWN1dGUKYXJpbmdhY3V0ZQdBRWFjdXRlB2FlYWN1dGULT3NsYXNoYWN1dGULb3NsYXNoYWN1dGUJYW5vdGVsZWlhBldncmF2ZQZ3Z3JhdmUGV2FjdXRlBndhY3V0ZQlXZGllcmVzaXMJd2RpZXJlc2lzBllncmF2ZQZ5Z3JhdmUNcXVvdGVyZXZlcnNlZAlyYWRpY2FsZXgJYWZpaTA4OTQxCWVzdGltYXRlZAlvbmVlaWdodGgMdGhyZWVlaWdodGhzC2ZpdmVlaWdodGhzDHNldmVuZWlnaHRocwtjb21tYWFjY2VudBB1bmRlcmNvbW1hYWNjZW50BXRvbm9zDWRpZXJlc2lzdG9ub3MKQWxwaGF0b25vcwxFcHNpbG9udG9ub3MIRXRhdG9ub3MJSW90YXRvbm9zDE9taWNyb250b25vcwxVcHNpbG9udG9ub3MKT21lZ2F0b25vcxFpb3RhZGllcmVzaXN0b25vcwVBbHBoYQRCZXRhB0Vwc2lsb24EWmV0YQNFdGEESW90YQVLYXBwYQZMYW1iZGECTXUCTnUCWGkHT21pY3JvbgJQaQNSaG8FU2lnbWEDVGF1B1Vwc2lsb24DQ2hpA1BzaQxJb3RhZGllcmVzaXMPVXBzaWxvbmRpZXJlc2lzCmFscGhhdG9ub3MMZXBzaWxvbnRvbm9zCGV0YXRvbm9zCWlvdGF0b25vcxR1cHNpbG9uZGllcmVzaXN0b25vcwRiZXRhBWdhbW1hBHpldGEDZXRhBXRoZXRhBGlvdGEFa2FwcGEGbGFtYmRhAm51AnhpB29taWNyb24DcmhvBnNpZ21hMQd1cHNpbG9uA2NoaQNwc2kFb21lZ2EMaW90YWRpZXJlc2lzD3Vwc2lsb25kaWVyZXNpcwxvbWljcm9udG9ub3MMdXBzaWxvbnRvbm9zCm9tZWdhdG9ub3MJYWZpaTEwMDIzCWFmaWkxMDA1MQlhZmlpMTAwNTIJYWZpaTEwMDUzCWFmaWkxMDA1NAlhZmlpMTAwNTUJYWZpaTEwMDU2CWFmaWkxMDA1NwlhZmlpMTAwNTgJYWZpaTEwMDU5CWFmaWkxMDA2MAlhZmlpMTAwNjEJYWZpaTEwMDYyCWFmaWkxMDE0NQlhZmlpMTAwMTcJYWZpaTEwMDE4CWFmaWkxMDAxOQlhZmlpMTAwMjAJYWZpaTEwMDIxCWFmaWkxMDAyMglhZmlpMTAwMjQJYWZpaTEwMDI1CWFmaWkxMDAyNglhZmlpMTAwMjcJYWZpaTEwMDI4CWFmaWkxMDAyOQlhZmlpMTAwMzAJYWZpaTEwMDMxCWFmaWkxMDAzMglhZmlpMTAwMzMJYWZpaTEwMDM0CWFmaWkxMDAzNQlhZmlpMTAwMzYJYWZpaTEwMDM3CWFmaWkxMDAzOAlhZmlpMTAwMzkJYWZpaTEwMDQwCWFmaWkxMDA0MQlhZmlpMTAwNDIJYWZpaTEwMDQzCWFmaWkxMDA0NAlhZmlpMTAwNDUJYWZpaTEwMDQ2CWFmaWkxMDA0NwlhZmlpMTAwNDgJYWZpaTEwMDQ5CWFmaWkxMDA2NQlhZmlpMTAwNjYJYWZpaTEwMDY3CWFmaWkxMDA2OAlhZmlpMTAwNjkJYWZpaTEwMDcwCWFmaWkxMDA3MglhZmlpMTAwNzMJYWZpaTEwMDc0CWFmaWkxMDA3NQlhZmlpMTAwNzYJYWZpaTEwMDc3CWFmaWkxMDA3OAlhZmlpMTAwNzkJYWZpaTEwMDgwCWFmaWkxMDA4MQlhZmlpMTAwODIJYWZpaTEwMDgzCWFmaWkxMDA4NAlhZmlpMTAwODUJYWZpaTEwMDg2CWFmaWkxMDA4NwlhZmlpMTAwODgJYWZpaTEwMDg5CWFmaWkxMDA5MAlhZmlpMTAwOTEJYWZpaTEwMDkyCWFmaWkxMDA5MwlhZmlpMTAwOTQJYWZpaTEwMDk1CWFmaWkxMDA5NglhZmlpMTAwOTcJYWZpaTEwMDcxCWFmaWkxMDA5OQlhZmlpMTAxMDAJYWZpaTEwMTAxCWFmaWkxMDEwMglhZmlpMTAxMDMJYWZpaTEwMTA0CWFmaWkxMDEwNQlhZmlpMTAxMDYJYWZpaTEwMTA3CWFmaWkxMDEwOAlhZmlpMTAxMDkJYWZpaTEwMTEwCWFmaWkxMDE5MwlhZmlpMTAwNTAJYWZpaTEwMDk4CWFmaWkwMDIwOAlhZmlpNjEzNTIAAAAAAf//AAI=); } @keyframes appear { 0% { opacity: 0; } 100% { opacity: 1; } } @keyframes togreen { 0% { border-color: #000; } 100% { border-color: #0C0; } } @keyframes tored { 0% { border-color: #000; } 100% { border-color: #C00; } } /* #wrapper { background: #E5D9C7; box-shadow: 0px 0px 25px 0px rgba(0,0,0,0.75); display: table; margin: 3em auto; padding: 2em; animation-name: appear; animation-delay: 0.7s; animation-duration: 0.3s; animation-fill-mode: both; animation-iteration-count: 1; } */ #title { color: #171412; display: block; font-family: GangOfThree; font-size: 68px; text-align: center; animation-name: appear; animation-delay: 2s; animation-duration: 0.3s; animation-fill-mode: both; animation-iteration-count: 1; } #subtitle { color: #171412; display: block; font-family: GangOfThree; font-size: 24px; text-align: center; animation-name: appear; animation-delay: 3s; animation-duration: 0.3s; animation-fill-mode: both; animation-iteration-count: 1; } #cells { display: table; margin: 0 auto; } .cell { background: #EEDFCC; border: 1px solid #592B1F; box-shadow: 0px 0px 10px 0px rgba(0,0,0,0.75); display: inline-block; padding: 1em; margin: 0.8em; } .cell:hover { box-shadow: 0px 0px 25px 5px rgba(77,143,172,1); } .cell img { border: 1px solid #592B1F; vertical-align: middle; } .cell span { border-bottom: 3px solid; font-size: 42px; margin-left: 0.2em; vertical-align: middle; } </style> </head> <body> <div id="wrapper"> <span id="title">CLASSIFICATION RESULTS</span> <p> <span id="subtitle">ACCURACY: ''' + ('%.5f' % score[1]) + '''</span> <p> <div id="cells"> \n''') for i in range(96): index = random.randint(0, 11947-1) x, y, t = f1['tst/x'][index], f1['tst/y'][index], f1['tst/t'][index] score = model.evaluate(np.expand_dims(x, axis=0), np.expand_dims(y, axis=0), verbose=0) f2.write(create_cell(i, x, t, score[1] == 1)) if (i+1)%4 == 0: f2.write(' <br>\n') f2.write('''\ </div> </div> </body> </html>''')
630.549451
79,998
0.945399
3,846
114,760
28.204108
0.822673
0.000129
0.000784
0.000968
0.053977
0.05252
0.05252
0.051985
0.049902
0.048943
0
0.136869
0.018343
114,760
181
79,999
634.033149
0.826009
0.000819
0
0.230263
0
0.032895
0.984528
0.954327
0
1
0
0
0
0
null
null
0
0.065789
null
null
0.032895
0
0
1
null
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
0
0
0
1
1
null
1
0
0
0
1
0
0
0
0
0
0
0
0
7
45a73f70e822d398f73e1ba32364fb7c0dc7f38c
263
py
Python
hyperplan/label_schema.py
hyperplan-io/cli
dc7d407701fd78d9065d60c35b0f2674b28c86bb
[ "MIT" ]
1
2019-09-04T02:33:34.000Z
2019-09-04T02:33:34.000Z
hyperplan/label_schema.py
hyperplan-io/cli
dc7d407701fd78d9065d60c35b0f2674b28c86bb
[ "MIT" ]
1
2019-09-16T06:09:42.000Z
2019-09-16T06:09:42.000Z
hyperplan/label_schema.py
hyperplan-io/cli
dc7d407701fd78d9065d60c35b0f2674b28c86bb
[ "MIT" ]
null
null
null
import json class LabelSchema(): def __init__(self, label_id, label_descriptors): self.label_id = label_id self.label_descriptors = label_descriptors def to_json(self): return {'id': self.label_id, 'data': self.label_descriptors}
29.222222
68
0.695817
34
263
5
0.382353
0.264706
0.194118
0.188235
0
0
0
0
0
0
0
0
0.205323
263
8
69
32.875
0.813397
0
0
0
0
0
0.022814
0
0
0
0
0
0
1
0.285714
false
0
0.142857
0.142857
0.714286
0
0
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
1
0
0
7
b362c241d7799a935f7e9cb5e5d8b4fdae7ae43f
9,910
py
Python
src/mygrad/no_grad_funcs/__init__.py
kw-0/MyGrad
307f1bb5f2391e7f4df49fe43a7acf9d1e8ea141
[ "MIT" ]
147
2018-07-14T01:37:35.000Z
2022-03-29T06:37:58.000Z
src/mygrad/no_grad_funcs/__init__.py
kw-0/MyGrad
307f1bb5f2391e7f4df49fe43a7acf9d1e8ea141
[ "MIT" ]
223
2018-05-31T14:13:18.000Z
2022-02-27T18:53:49.000Z
src/mygrad/no_grad_funcs/__init__.py
kw-0/MyGrad
307f1bb5f2391e7f4df49fe43a7acf9d1e8ea141
[ "MIT" ]
27
2018-06-17T14:42:05.000Z
2021-10-31T00:21:09.000Z
import itertools import sys from typing import TYPE_CHECKING, Optional, Tuple, Union import numpy from mygrad.tensor_base import ( _REGISTERED_BOOL_ONLY_UFUNC, _REGISTERED_CONST_ONLY_UFUNC, _REGISTERED_NO_DIFF_NUMPY_FUNCS, ) from mygrad.typing import ArrayLike, DTypeLike, Mask __all__ = [ "allclose", "bincount", "can_cast", "ceil", "copyto", "divmod", "equal", "floor", "floor_divide", "fmod", "greater", "greater_equal", "isclose", "isfinite", "isinf", "isnan", "isnat", "less", "less_equal", "logical_and", "logical_not", "logical_or", "logical_xor", "may_share_memory", "min_scalar_type", "mod", "not_equal", "remainder", "result_type", "rint", "shape", "shares_memory", "sign", "signbit", "trunc", ] _module = sys.modules[__name__] for _func in itertools.chain.from_iterable( ( _REGISTERED_NO_DIFF_NUMPY_FUNCS, _REGISTERED_BOOL_ONLY_UFUNC, _REGISTERED_CONST_ONLY_UFUNC, ) ): setattr(_module, _func.__name__, _func) mod = numpy.remainder if TYPE_CHECKING: # pragma: no cover def allclose( a: ArrayLike, b: ArrayLike, rtol: float = 1e-05, atol: float = 1e-08, equal_nan: bool = False, ) -> bool: pass def isclose( a: ArrayLike, b: ArrayLike, rtol: float = 1e-05, atol: float = 1e-08, equal_nan: bool = False, ) -> bool: pass def bincount( x: ArrayLike, weights: Optional[ArrayLike] = None, minlength: int = 0 ) -> numpy.ndarray: pass def can_cast(from_, to, casting="safe") -> bool: pass def copyto( dst: ArrayLike, src: ArrayLike, casting: str = "same_kind", where: bool = True ): pass def may_share_memory( a: ArrayLike, b: ArrayLike, max_work: Optional[int] = None ) -> bool: pass def min_scalar_type(a: ArrayLike) -> numpy.dtype: pass def result_type(*arrays_and_dtypes: Union[ArrayLike, numpy.dtype]) -> numpy.dtype: pass def shares_memory( a: ArrayLike, b: ArrayLike, max_work: Optional[int] = None ) -> bool: pass def shape(a: ArrayLike) -> Tuple[int, ...]: pass def isnan( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def isfinite( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def isinf( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def isnat( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def signbit( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def logical_not( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def logical_and( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def logical_or( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def logical_xor( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def greater( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def greater_equal( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def less( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def less_equal( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def equal( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def not_equal( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Union[numpy.ndarray, bool]: ... def floor_divide( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> numpy.ndarray: ... def remainder( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> numpy.ndarray: ... def divmod( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Tuple[numpy.ndarray, numpy.ndarray]: ... def mod( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Tuple[numpy.ndarray, numpy.ndarray]: ... def fmod( x1: ArrayLike, x2: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> Tuple[numpy.ndarray, numpy.ndarray]: ... def rint( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> numpy.ndarray: ... def sign( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> numpy.ndarray: ... def floor( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> numpy.ndarray: ... def ceil( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> numpy.ndarray: ... def trunc( x: ArrayLike, out: Optional[ArrayLike] = None, *, casting: str = "same_kind", where: Mask = True, order: str = "K", dtype: DTypeLike = None, subok: bool = True ) -> numpy.ndarray: ...
22.939815
86
0.498486
990
9,910
4.878788
0.116162
0.07205
0.113043
0.096894
0.800828
0.7853
0.7853
0.7853
0.765839
0.765839
0
0.006928
0.373663
9,910
431
87
22.993039
0.771226
0.001615
0
0.773196
0
0
0.054286
0
0
0
0
0
0
1
0.090206
false
0.025773
0.015464
0
0.10567
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
b36b693619b91f2d2e1c37c6a8a6d3d72c8f54de
33
py
Python
function_19231261.py
lzy248/ASMART-21
0903dcaf05c694dfe125da19021494c4cdd752fd
[ "MIT" ]
null
null
null
function_19231261.py
lzy248/ASMART-21
0903dcaf05c694dfe125da19021494c4cdd752fd
[ "MIT" ]
null
null
null
function_19231261.py
lzy248/ASMART-21
0903dcaf05c694dfe125da19021494c4cdd752fd
[ "MIT" ]
null
null
null
print('My student_id: 19231261')
16.5
32
0.757576
5
33
4.8
1
0
0
0
0
0
0
0
0
0
0
0.266667
0.090909
33
1
33
33
0.533333
0
0
0
0
0
0.69697
0
0
0
0
0
0
1
0
true
0
0
0
0
1
1
1
0
null
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
0
1
0
null
0
0
0
0
0
0
1
0
0
0
0
1
0
7
6434c6eb96c4285f6e75454bf895fa31e982c40b
16,420
py
Python
cave/com.raytheon.viz.gfe/python/autotest/VTEC_GHG_Complex4_TestScript.py
srcarter3/awips2
37f31f5e88516b9fd576eaa49d43bfb762e1d174
[ "Apache-2.0" ]
null
null
null
cave/com.raytheon.viz.gfe/python/autotest/VTEC_GHG_Complex4_TestScript.py
srcarter3/awips2
37f31f5e88516b9fd576eaa49d43bfb762e1d174
[ "Apache-2.0" ]
null
null
null
cave/com.raytheon.viz.gfe/python/autotest/VTEC_GHG_Complex4_TestScript.py
srcarter3/awips2
37f31f5e88516b9fd576eaa49d43bfb762e1d174
[ "Apache-2.0" ]
1
2021-10-30T00:03:05.000Z
2021-10-30T00:03:05.000Z
## # This software was developed and / or modified by Raytheon Company, # pursuant to Contract DG133W-05-CQ-1067 with the US Government. # # U.S. EXPORT CONTROLLED TECHNICAL DATA # This software product contains export-restricted data whose # export/transfer/disclosure is restricted by U.S. law. Dissemination # to non-U.S. persons whether in the United States or abroad requires # an export license or other authorization. # # Contractor Name: Raytheon Company # Contractor Address: 6825 Pine Street, Suite 340 # Mail Stop B8 # Omaha, NE 68106 # 402.291.0100 # # See the AWIPS II Master Rights File ("Master Rights File.pdf") for # further licensing information. ## # ---------------------------------------------------------------------------- # This software is in the public domain, furnished "as is", without technical # support, and with no warranty, express or implied, as to its usefulness for # any purpose. # # More VTEC_GHG Complex Hazard Tests! # # Author: # ---------------------------------------------------------------------------- scripts = [ { "commentary": "Clear out all Hazards Table and Grids.", "name": "GHG_Complex4_0", "productType": None, "clearHazardsTable" : 1, "checkStrings": [], }, { "commentary": """ Creating a FG.Y hazard for Area1 and Area2 Area1 (FLZ139, FLZ239, FLZ142, FLZ242, FLZ043) 0-1 Area2 (FLZ148, FLZ248, FLZ149, FLZ249, FLZ050) 1-24 """, "name": "GHG_Complex4_1", "productType": "Hazard_NPW_Local", "createGrids": [ ("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"), ("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]), ("Fcst", "Hazards", "DISCRETE", 1, 24, "FG.Y", ["FLZ148", "FLZ248", "FLZ149", "FLZ249", "FLZ050"]), ], "checkStrings": [ "WWUS72 KTBW 010000", "NPWTBW", "URGENT - WEATHER MESSAGE", "National Weather Service Tampa Bay Ruskin FL", "700 PM EST Thu Dec 31 2009", "...|*Overview headline (must edit)*|...", ".|*Overview (must edit)*|.", "FLZ043-139-142-239-242-010100-", "/O.NEW.KTBW.FG.Y.0001.100101T0000Z-100101T0100Z/", "Sumter-Coastal Levy-Coastal Citrus-Inland Levy-Inland Citrus-", "700 PM EST Thu Dec 31 2009", "...DENSE FOG ADVISORY IN EFFECT UNTIL 8 PM EST THIS EVENING...", "The National Weather Service in Tampa Bay Ruskin has issued a Dense Fog Advisory, which is in effect until 8 PM EST this evening.", # "|* SEGMENT TEXT GOES HERE *|.", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.", "&&", "$$", "FLZ050-148-149-248-249-010800-", "/O.NEW.KTBW.FG.Y.0001.100101T0100Z-100102T0000Z/", "Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-", "Inland Pasco-", "700 PM EST Thu Dec 31 2009", "...DENSE FOG ADVISORY IN EFFECT UNTIL 7 PM EST FRIDAY...", "The National Weather Service in Tampa Bay Ruskin has issued a Dense Fog Advisory, which is in effect until 7 PM EST Friday.", # "|* SEGMENT TEXT GOES HERE *|.", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.", "&&", "$$", ], }, { "commentary": "No changes are made to the existing hazards.", "name": "GHG_Complex4_2", "productType": "Hazard_NPW_Local", "deleteGrids": [], "checkStrings": [ "WWUS72 KTBW 010000", "NPWTBW", "URGENT - WEATHER MESSAGE", "National Weather Service Tampa Bay Ruskin FL", "700 PM EST Thu Dec 31 2009", "...|*Overview headline (must edit)*|...", ".|*Overview (must edit)*|.", "FLZ043-139-142-239-242-010100-", "/O.CON.KTBW.FG.Y.0001.000000T0000Z-100101T0100Z/", "Sumter-Coastal Levy-Coastal Citrus-Inland Levy-Inland Citrus-", "700 PM EST Thu Dec 31 2009", "...DENSE FOG ADVISORY REMAINS IN EFFECT UNTIL 8 PM EST THIS EVENING...", # "A Dense Fog Advisory remains in effect until 8 PM EST this evening.", # "|* SEGMENT TEXT GOES HERE *|.", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.", "&&", "$$", "FLZ050-148-149-248-249-010800-", "/O.CON.KTBW.FG.Y.0001.100101T0100Z-100102T0000Z/", "Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-", "Inland Pasco-", "700 PM EST Thu Dec 31 2009", "...DENSE FOG ADVISORY REMAINS IN EFFECT UNTIL 7 PM EST FRIDAY...", # "A Dense Fog Advisory remains in effect until 7 PM EST Friday.", # "|* SEGMENT TEXT GOES HERE *|.", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.", "&&", "$$", ], }, { "commentary": """ Creating a new area (Area3) with a HW.A hazard Note that we jumped ahead in time 1 hour in order for the FG.Y hazard in Area1 to expire Area3 (FLZ043, FLZ052, FLZ057) 33-75 Area1 (FLZ139, FLZ239, FLZ142, FLZ242, FLZ043) 0-1 """, "name": "GHG_Complex4_3", "productType": "Hazard_NPW_Local", "createGrids": [ ("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"), ("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]), ("Fcst", "Hazards", "DISCRETE", 1, 24, "FG.Y", ["FLZ148", "FLZ248", "FLZ149", "FLZ249", "FLZ050"]), ("Fcst", "Hazards", "DISCRETE", 33, 75, "HW.A", ["FLZ043", "FLZ052", "FLZ057"]), ], "checkStrings": [ "WWUS72 KTBW 010115", "NPWTBW", "URGENT - WEATHER MESSAGE", "National Weather Service Tampa Bay Ruskin FL", "815 PM EST Thu Dec 31 2009", "...|*Overview headline (must edit)*|...", ".|*Overview (must edit)*|.", "FLZ043-010915-", "/O.EXP.KTBW.FG.Y.0001.000000T0000Z-100101T0100Z/", "/O.NEW.KTBW.HW.A.0001.100102T0900Z-100104T0300Z/", "Sumter-", "815 PM EST Thu Dec 31 2009", "...HIGH WIND WATCH IN EFFECT FROM LATE FRIDAY NIGHT THROUGH SUNDAY EVENING...", "...DENSE FOG ADVISORY HAS EXPIRED...", "The National Weather Service in Tampa Bay Ruskin has issued a High Wind Watch, which is in effect from late Friday night through Sunday evening.", # "|*|* SEGMENT TEXT GOES HERE *|.*|", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A High Wind Watch means there is the potential for a hazardous high wind event. Sustained winds of at least 40 mph, or gusts of 58 mph or stronger may occur. Continue to monitor the latest forecasts.", "&&", "$$", "FLZ139-142-239-242-010215-", "/O.EXP.KTBW.FG.Y.0001.000000T0000Z-100101T0100Z/", "Coastal Levy-Coastal Citrus-Inland Levy-Inland Citrus-", "815 PM EST Thu Dec 31 2009", "...DENSE FOG ADVISORY HAS EXPIRED...", # "The Dense Fog Advisory is no longer in effect.", # "|* SEGMENT TEXT GOES HERE *|.", "$$", "FLZ050-148-149-248-249-010915-", "/O.CON.KTBW.FG.Y.0001.000000T0000Z-100102T0000Z/", "Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-", "Inland Pasco-", "815 PM EST Thu Dec 31 2009", "...DENSE FOG ADVISORY REMAINS IN EFFECT UNTIL 7 PM EST FRIDAY...", # "A Dense Fog Advisory remains in effect until 7 PM EST Friday.", # "|* SEGMENT TEXT GOES HERE *|.", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.", "&&", "$$", "FLZ052-057-010915-", "/O.NEW.KTBW.HW.A.0001.100102T0900Z-100104T0300Z/", "Polk-Highlands-", "815 PM EST Thu Dec 31 2009", "...HIGH WIND WATCH IN EFFECT FROM LATE FRIDAY NIGHT THROUGH SUNDAY EVENING...", "The National Weather Service in Tampa Bay Ruskin has issued a High Wind Watch, which is in effect from late Friday night through Sunday evening.", # "|* SEGMENT TEXT GOES HERE *|.", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A High Wind Watch means there is the potential for a hazardous high wind event. Sustained winds of at least 40 mph, or gusts of 58 mph or stronger may occur. Continue to monitor the latest forecasts.", "&&", "$$", ], "drtTime":"20100101_0115", }, { "commentary": """ Removing Area2 and the FG.Y hazard Area2 (FLZ148, FLZ248, FLZ149, FLZ249, FLZ050) 1-24 Upgrading the HW.A hazard in Area3 to a HW.W hazard Area3 (FLZ043, FLZ052, FLZ057) 33-75 """, "name": "GHG_Complex4_4", "productType": "Hazard_NPW_Local", "createGrids": [ ("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"), ("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]), ("Fcst", "Hazards", "DISCRETE", 1, 24, "<None>", ["FLZ148", "FLZ248", "FLZ149", "FLZ249", "FLZ050"]), ("Fcst", "Hazards", "DISCRETE", 33, 75, "HW.W", ["FLZ043", "FLZ052", "FLZ057"]), ], "checkStrings": [ "WWUS72 KTBW 010115", "NPWTBW", "URGENT - WEATHER MESSAGE", "National Weather Service Tampa Bay Ruskin FL", "815 PM EST Thu Dec 31 2009", "...|*Overview headline (must edit)*|...", ".|*Overview (must edit)*|.", "FLZ050-148-149-248-249-010215-", "/O.CAN.KTBW.FG.Y.0001.000000T0000Z-100102T0000Z/", "Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-", "Inland Pasco-", "815 PM EST Thu Dec 31 2009", "...DENSE FOG ADVISORY IS CANCELLED...", "The National Weather Service in Tampa Bay Ruskin has cancelled the Dense Fog Advisory.", # "|* SEGMENT TEXT GOES HERE *|.", "$$", "FLZ043-052-057-010915-", "/O.UPG.KTBW.HW.A.0001.100102T0900Z-100104T0300Z/", "/O.NEW.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/", "Sumter-Polk-Highlands-", "815 PM EST Thu Dec 31 2009", "...HIGH WIND WARNING IN EFFECT FROM 4 AM SATURDAY TO 10 PM EST SUNDAY...", "The National Weather Service in Tampa Bay Ruskin has issued a High Wind Warning, which is in effect from 4 AM Saturday to 10 PM EST Sunday. The High Wind Watch is no longer in effect.", # "|*|*|* SEGMENT TEXT GOES HERE *|.*|*|", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A High Wind Warning means a hazardous high wind event is expected or occurring. Sustained wind speeds of at least 40 mph or gusts of 58 mph or more can lead to property damage.", "&&", "$$", ], "drtTime":"20100101_0115", }, { "commentary": "No changes are made to the existing hazards.", "name": "GHG_Complex4_5", "productType": "Hazard_NPW_Local", "deleteGrids": [], "checkStrings": [ "WWUS72 KTBW 010115", "NPWTBW", "URGENT - WEATHER MESSAGE", "National Weather Service Tampa Bay Ruskin FL", "815 PM EST Thu Dec 31 2009", "...|*Overview headline (must edit)*|...", ".|*Overview (must edit)*|.", "FLZ043-052-057-010915-", "/O.CON.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/", "Sumter-Polk-Highlands-", "815 PM EST Thu Dec 31 2009", "...HIGH WIND WARNING REMAINS IN EFFECT FROM 4 AM SATURDAY TO 10 PM EST SUNDAY...", # "A High Wind Warning remains in effect from 4 AM Saturday to 10 PM EST Sunday.", # "|*|*|* SEGMENT TEXT GOES HERE *|.*|*|", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A High Wind Warning means a hazardous high wind event is expected or occurring. Sustained wind speeds of at least 40 mph or gusts of 58 mph or more can lead to property damage.", "&&", "$$", ], "drtTime":"20100101_0115", }, { "commentary": """ Reducing a portion of the HW.W hazard in Area3 and setting it to no hazards Area3 (FLZ057) 33-75 """, "name": "GHG_Complex4_6", "productType": "Hazard_NPW_Local", "createGrids": [ ("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"), ("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]), ("Fcst", "Hazards", "DISCRETE", 33, 75, "HW.W", ["FLZ043", "FLZ052"]), ("Fcst", "Hazards", "DISCRETE", 33, 75, "<None>", ["FLZ057"]), ], "checkStrings": [ "WWUS72 KTBW 010115", "NPWTBW", "URGENT - WEATHER MESSAGE", "National Weather Service Tampa Bay Ruskin FL", "815 PM EST Thu Dec 31 2009", "...|*Overview headline (must edit)*|...", ".|*Overview (must edit)*|.", "FLZ057-010215-", "/O.CAN.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/", "Highlands-", "815 PM EST Thu Dec 31 2009", "...HIGH WIND WARNING IS CANCELLED...", "The National Weather Service in Tampa Bay Ruskin has cancelled the High Wind Warning.", # "|* SEGMENT TEXT GOES HERE *|.", "$$", "FLZ043-052-010915-", "/O.CON.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/", "Sumter-Polk-", "815 PM EST Thu Dec 31 2009", "...HIGH WIND WARNING REMAINS IN EFFECT FROM 4 AM SATURDAY TO 10 PM EST SUNDAY...", # "A High Wind Warning remains in effect from 4 AM Saturday to 10 PM EST Sunday.", # "|*|*|* SEGMENT TEXT GOES HERE *|.*|*|", "PRECAUTIONARY/PREPAREDNESS ACTIONS...", "A High Wind Warning means a hazardous high wind event is expected or occurring. Sustained wind speeds of at least 40 mph or gusts of 58 mph or more can lead to property damage.", "&&", "$$", ], "drtTime":"20100101_0115", }, { "commentary": """ Replacing the HW.W hazard in Area3 with no hazards Area3 (FLZ043, FLZ052) 33-75 """, "name": "GHG_Complex4_7", "productType": "Hazard_NPW_Local", "createGrids": [ ("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"), ("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]), ("Fcst", "Hazards", "DISCRETE", 33, 75, "<None>", ["FLZ043", "FLZ052"]), ], "decodeVTEC": 0, "checkStrings": [ "WWUS72 KTBW 010115", "NPWTBW", "URGENT - WEATHER MESSAGE", "National Weather Service Tampa Bay Ruskin FL", "815 PM EST Thu Dec 31 2009", "...|*Overview headline (must edit)*|...", ".|*Overview (must edit)*|.", "FLZ043-052-010215-", "/O.CAN.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/", "Sumter-Polk-", # "Including the cities of Wildwood, Lake Panasoffkee, ", # "Bushnell, Lakeland, Winter Haven", "815 PM EST Thu Dec 31 2009", "...HIGH WIND WARNING IS CANCELLED...", "The National Weather Service in Tampa Bay Ruskin has cancelled the High Wind Warning.", # "|* SEGMENT TEXT GOES HERE *|.", "$$", ], "drtTime":"20100101_0115", }, { "commentary": "Canceling out all hazards.", "name": "GHG_Complex4_8", "productType": None, "checkStrings": [], "clearHazardsTable": 1, "drtTime":"20100101_0115", }, ] import TestScript def testScript(self, dataMgr): defaults = { "database": "<site>_GRID__Fcst_00000000_0000", "publishGrids": 0, "decodeVTEC": 1, "gridsStartTime": "20100101_0000", "orderStrings": 1, "cmdLineVars": "{('Issued By', 'issuedBy'): None}", "deleteGrids": [("Fcst", "Hazards", "SFC", "all", "all")], } return TestScript.generalTestScript(self, dataMgr, scripts, defaults)
42.210797
208
0.595859
2,018
16,420
4.826065
0.172448
0.018996
0.01725
0.023719
0.816614
0.808913
0.778725
0.774412
0.72872
0.712188
0
0.113914
0.246711
16,420
388
209
42.319588
0.673458
0.133557
0
0.717949
0
0.051282
0.715164
0.095605
0
0
0
0
0
1
0.003205
false
0
0.003205
0
0.009615
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
4410d92d0310ab4837637ae6079062735dcbe28c
551
py
Python
TERCEIRO MUNDO - THIRD WORLD/ex109/moeda.py
MatheusKlebson/Python-Course
c1c5404095601733057bd91a96b5b4c45f0b5b9a
[ "MIT" ]
null
null
null
TERCEIRO MUNDO - THIRD WORLD/ex109/moeda.py
MatheusKlebson/Python-Course
c1c5404095601733057bd91a96b5b4c45f0b5b9a
[ "MIT" ]
1
2020-11-25T15:47:38.000Z
2020-11-25T15:47:38.000Z
TERCEIRO MUNDO - THIRD WORLD/ex109/moeda.py
MatheusKlebson/Python-Course
c1c5404095601733057bd91a96b5b4c45f0b5b9a
[ "MIT" ]
null
null
null
def diminuir(preço=0,taxa=0,formato=False): resp = preço - (preço*taxa/100) return resp if not formato else moeda(resp) def aumentar(preço=0,taxa=0,formato=False): resp = preço + (preço*taxa/100) return resp if not formato else moeda(resp) def metade(preço=0,formato=False): resp = preço / 2 return resp if not formato else moeda(resp) def dobro(preço=0,formato=False): resp = preço * 2 return resp if not formato else moeda(resp) def moeda(preço=0,moeda="R$"): return f"{moeda}{preço:.2f}".replace(".",",")
25.045455
49
0.669691
88
551
4.193182
0.25
0.081301
0.140921
0.184282
0.802168
0.802168
0.802168
0.802168
0.802168
0.802168
0
0.035714
0.186933
551
22
49
25.045455
0.787946
0
0
0.285714
0
0
0.039855
0
0
0
0
0
0
1
0.357143
false
0
0
0.071429
0.714286
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
0
1
0
0
9
447d59f4da38bb9e820101273cd72931eb803e58
179
py
Python
tests/integration/commands/export/html/file_traceability/08_nosdoc_pragma/file.py
BenGardiner/strictdoc
c927872a8f080ca1f86cdb7e99767fb25398dbd5
[ "Apache-2.0" ]
47
2020-10-27T20:03:12.000Z
2022-03-22T00:01:27.000Z
tests/integration/commands/export/html/file_traceability/08_nosdoc_pragma/file.py
BenGardiner/strictdoc
c927872a8f080ca1f86cdb7e99767fb25398dbd5
[ "Apache-2.0" ]
131
2020-10-27T18:44:24.000Z
2022-03-31T23:51:28.000Z
tests/integration/commands/export/html/file_traceability/08_nosdoc_pragma/file.py
BenGardiner/strictdoc
c927872a8f080ca1f86cdb7e99767fb25398dbd5
[ "Apache-2.0" ]
12
2020-12-29T10:38:57.000Z
2022-03-21T20:57:16.000Z
def hello_world(): # [nosdoc] # [REQ-001] print("ignored hello world") # [/REQ-001] # [/nosdoc] # [REQ-001] print("real hello world") # [/REQ-001]
17.9
32
0.50838
21
179
4.285714
0.428571
0.266667
0.266667
0.377778
0
0
0
0
0
0
0
0.094488
0.290503
179
9
33
19.888889
0.614173
0.335196
0
0
0
0
0.3125
0
0
0
0
0
0
1
0.333333
true
0
0
0
0.333333
0.666667
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
0
0
0
0
1
0
8
448ea89db8e68a386ebcdd205ca10260305a3d66
46
py
Python
heurisp/__init__.py
egroh/pyHSP
bb90e3ef383510e15231c72eefde925b234f85e0
[ "MIT" ]
4
2021-01-22T09:12:28.000Z
2022-03-30T02:48:37.000Z
heurisp/__init__.py
egroh/pyHSP
bb90e3ef383510e15231c72eefde925b234f85e0
[ "MIT" ]
null
null
null
heurisp/__init__.py
egroh/pyHSP
bb90e3ef383510e15231c72eefde925b234f85e0
[ "MIT" ]
1
2021-09-18T11:39:18.000Z
2021-09-18T11:39:18.000Z
from .heurisp import OrientationSpaceExplorer
23
45
0.891304
4
46
10.25
1
0
0
0
0
0
0
0
0
0
0
0
0.086957
46
1
46
46
0.97619
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
1
1
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
922492d6ff760cf7ea6293bea280038a72a1845c
664
py
Python
desktop/core/ext-py/python-ldap-2.3.11/Tests/Lib/ldap/test_set_option.py
wwjiang007/hue
6475bcbc340092e9d69edc396171bb6762bae1b9
[ "Apache-2.0" ]
2
2021-04-27T03:57:00.000Z
2021-06-18T09:39:58.000Z
desktop/core/ext-py/python-ldap-2.3.11/Tests/Lib/ldap/test_set_option.py
wwjiang007/hue
6475bcbc340092e9d69edc396171bb6762bae1b9
[ "Apache-2.0" ]
null
null
null
desktop/core/ext-py/python-ldap-2.3.11/Tests/Lib/ldap/test_set_option.py
wwjiang007/hue
6475bcbc340092e9d69edc396171bb6762bae1b9
[ "Apache-2.0" ]
2
2021-09-06T18:44:45.000Z
2022-02-24T04:10:10.000Z
import ldap ldap.set_option(ldap.OPT_DEREF,0) print ldap.get_option(ldap.OPT_DEREF) ldap.set_option(ldap.OPT_DEREF,1) print ldap.get_option(ldap.OPT_DEREF) ldap.set_option(ldap.OPT_DEREF,2) print ldap.get_option(ldap.OPT_DEREF) print ldap.get_option(ldap.OPT_TIMEOUT) print ldap.get_option(ldap.OPT_NETWORK_TIMEOUT) ldap.set_option(ldap.OPT_TIMEOUT,0.0) print ldap.get_option(ldap.OPT_TIMEOUT) ldap.set_option(ldap.OPT_NETWORK_TIMEOUT,0.0) print ldap.get_option(ldap.OPT_NETWORK_TIMEOUT) ldap.set_option(ldap.OPT_TIMEOUT,30.0) print ldap.get_option(ldap.OPT_TIMEOUT) ldap.set_option(ldap.OPT_NETWORK_TIMEOUT,30.0) print ldap.get_option(ldap.OPT_NETWORK_TIMEOUT)
33.2
47
0.843373
123
664
4.252033
0.113821
0.305927
0.397706
0.309751
0.977055
0.977055
0.929254
0.808795
0.808795
0.718929
0
0.020472
0.043675
664
19
48
34.947368
0.80315
0
0
0.529412
0
0
0
0
0
0
0
0
0
0
null
null
0
0.058824
null
null
0.529412
0
0
0
null
1
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
1
0
11