hexsha string | size int64 | ext string | lang string | max_stars_repo_path string | max_stars_repo_name string | max_stars_repo_head_hexsha string | max_stars_repo_licenses list | max_stars_count int64 | max_stars_repo_stars_event_min_datetime string | max_stars_repo_stars_event_max_datetime string | max_issues_repo_path string | max_issues_repo_name string | max_issues_repo_head_hexsha string | max_issues_repo_licenses list | max_issues_count int64 | max_issues_repo_issues_event_min_datetime string | max_issues_repo_issues_event_max_datetime string | max_forks_repo_path string | max_forks_repo_name string | max_forks_repo_head_hexsha string | max_forks_repo_licenses list | max_forks_count int64 | max_forks_repo_forks_event_min_datetime string | max_forks_repo_forks_event_max_datetime string | content string | avg_line_length float64 | max_line_length int64 | alphanum_fraction float64 | qsc_code_num_words_quality_signal int64 | qsc_code_num_chars_quality_signal float64 | qsc_code_mean_word_length_quality_signal float64 | qsc_code_frac_words_unique_quality_signal float64 | qsc_code_frac_chars_top_2grams_quality_signal float64 | qsc_code_frac_chars_top_3grams_quality_signal float64 | qsc_code_frac_chars_top_4grams_quality_signal float64 | qsc_code_frac_chars_dupe_5grams_quality_signal float64 | qsc_code_frac_chars_dupe_6grams_quality_signal float64 | qsc_code_frac_chars_dupe_7grams_quality_signal float64 | qsc_code_frac_chars_dupe_8grams_quality_signal float64 | qsc_code_frac_chars_dupe_9grams_quality_signal float64 | qsc_code_frac_chars_dupe_10grams_quality_signal float64 | qsc_code_frac_chars_replacement_symbols_quality_signal float64 | qsc_code_frac_chars_digital_quality_signal float64 | qsc_code_frac_chars_whitespace_quality_signal float64 | qsc_code_size_file_byte_quality_signal float64 | qsc_code_num_lines_quality_signal float64 | qsc_code_num_chars_line_max_quality_signal float64 | qsc_code_num_chars_line_mean_quality_signal float64 | qsc_code_frac_chars_alphabet_quality_signal float64 | qsc_code_frac_chars_comments_quality_signal float64 | qsc_code_cate_xml_start_quality_signal float64 | qsc_code_frac_lines_dupe_lines_quality_signal float64 | qsc_code_cate_autogen_quality_signal float64 | qsc_code_frac_lines_long_string_quality_signal float64 | qsc_code_frac_chars_string_length_quality_signal float64 | qsc_code_frac_chars_long_word_length_quality_signal float64 | qsc_code_frac_lines_string_concat_quality_signal float64 | qsc_code_cate_encoded_data_quality_signal float64 | qsc_code_frac_chars_hex_words_quality_signal float64 | qsc_code_frac_lines_prompt_comments_quality_signal float64 | qsc_code_frac_lines_assert_quality_signal float64 | qsc_codepython_cate_ast_quality_signal float64 | qsc_codepython_frac_lines_func_ratio_quality_signal float64 | qsc_codepython_cate_var_zero_quality_signal bool | qsc_codepython_frac_lines_pass_quality_signal float64 | qsc_codepython_frac_lines_import_quality_signal float64 | qsc_codepython_frac_lines_simplefunc_quality_signal float64 | qsc_codepython_score_lines_no_logic_quality_signal float64 | qsc_codepython_frac_lines_print_quality_signal float64 | qsc_code_num_words int64 | qsc_code_num_chars int64 | qsc_code_mean_word_length int64 | qsc_code_frac_words_unique null | qsc_code_frac_chars_top_2grams int64 | qsc_code_frac_chars_top_3grams int64 | qsc_code_frac_chars_top_4grams int64 | qsc_code_frac_chars_dupe_5grams int64 | qsc_code_frac_chars_dupe_6grams int64 | qsc_code_frac_chars_dupe_7grams int64 | qsc_code_frac_chars_dupe_8grams int64 | qsc_code_frac_chars_dupe_9grams int64 | qsc_code_frac_chars_dupe_10grams int64 | qsc_code_frac_chars_replacement_symbols int64 | qsc_code_frac_chars_digital int64 | qsc_code_frac_chars_whitespace int64 | qsc_code_size_file_byte int64 | qsc_code_num_lines int64 | qsc_code_num_chars_line_max int64 | qsc_code_num_chars_line_mean int64 | qsc_code_frac_chars_alphabet int64 | qsc_code_frac_chars_comments int64 | qsc_code_cate_xml_start int64 | qsc_code_frac_lines_dupe_lines int64 | qsc_code_cate_autogen int64 | qsc_code_frac_lines_long_string int64 | qsc_code_frac_chars_string_length int64 | qsc_code_frac_chars_long_word_length int64 | qsc_code_frac_lines_string_concat null | qsc_code_cate_encoded_data int64 | qsc_code_frac_chars_hex_words int64 | qsc_code_frac_lines_prompt_comments int64 | qsc_code_frac_lines_assert int64 | qsc_codepython_cate_ast int64 | qsc_codepython_frac_lines_func_ratio int64 | qsc_codepython_cate_var_zero int64 | qsc_codepython_frac_lines_pass int64 | qsc_codepython_frac_lines_import int64 | qsc_codepython_frac_lines_simplefunc int64 | qsc_codepython_score_lines_no_logic int64 | qsc_codepython_frac_lines_print int64 | effective string | hits int64 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
21a76a35389ed389d1dde90b646d18b2512252f2 | 42,619 | py | Python | models/stan_dlm_models.py | justinalsing/dlmmc | 37cb38e09d71ec3160b89b748b187fd276266596 | [
"MIT"
] | 18 | 2019-01-02T17:02:46.000Z | 2021-11-06T04:36:05.000Z | models/stan_dlm_models.py | justinalsing/dlm | 37cb38e09d71ec3160b89b748b187fd276266596 | [
"MIT"
] | 6 | 2019-01-23T13:18:30.000Z | 2019-05-06T07:19:50.000Z | models/stan_dlm_models.py | justinalsing/dlm | 37cb38e09d71ec3160b89b748b187fd276266596 | [
"MIT"
] | 2 | 2019-01-15T07:32:53.000Z | 2019-01-30T00:32:57.000Z | dlm_vanilla_ar1 = """
data {
int N; // number of time steps
int nreg; // number of regressors
real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2
vector[N] time_series; // n-composites vectors of N-time-steps -- the data
vector[N] stddev; // corresponding std deviation for each data point
vector[nreg] regressors[N]; // nreg regressors of N-time-steps
real<lower=0> sigma_trend_prior;
real<lower=0> sigma_seas_prior;
real<lower=0> sigma_AR_prior;
real<lower=0> S;
}
transformed data {
// Re-scaled data
real data_mean = mean(time_series);
real data_range = max(time_series) - min(time_series);
vector[N] d = (time_series - data_mean)/data_range;
vector[N] s = stddev/data_range;
// Set value of nx
int nx = nreg+7;
// Declare F-vector (observation projection vector)
vector[nx] F[N+1];
// Initialize
for(t in 1:N+1){
F[t] = rep_vector(0, nx);
}
// First time point
F[1][1] = 1;
F[1][2] = 0;
F[1][3] = 1;
F[1][4] = 0;
F[1][5] = 1;
F[1][6] = 0;
for(i in 1:nreg){
F[1][6+i] = 0;
}
F[1][6+nreg+1] = 1;
// Loop over next time points
for(t in 2:N+1){
F[t][1] = 1;
F[t][2] = 0;
F[t][3] = 1;
F[t][4] = 0;
F[t][5] = 1;
F[t][6] = 0;
for(i in 1:nreg){
F[t][6+i] = regressors[t-1][i];
}
F[t][6+nreg+1] = 1;
}
}
parameters {
real<lower=0> sigma_trend;
real<lower=0> sigma_seas;
real<lower=0> sigma_AR;
real<lower=0, upper=1> rhoAR1;
}
transformed parameters{
// Declare intermediate Kalman objects
vector[nx] x_hat[N+1];
vector[nx] x_bar[N+1];
matrix[nx,nx] C_hat[N+1];
vector[N+1] C_y;
vector[nx] K[N+1];
matrix[nx,nx] C_bar[N+1];
vector[N+1] v;
// Declare state-space model matrices
matrix[nx, nx] G; // G-matrix (state transition matrix)
matrix[nx, nx] W; // W-matrix (state covariance)
matrix[nx, nx] C; // C-matrix (observation covariance)
// Initialize state-space matrices
G = rep_matrix(0, nx, nx);
W = rep_matrix(0, nx, nx);
C = rep_matrix(0, nx, nx);
// Initialize Kalman filter stuff
C_y = rep_vector(0, N+1);
v = rep_vector(0, N+1);
for(t in 1:N+1){
x_hat[t] = rep_vector(0, nx);
x_bar[t] = rep_vector(0, nx);
K[t] = rep_vector(0, nx);
C_bar[t] = rep_matrix(0, nx, nx);
C_hat[t] = rep_matrix(0, nx, nx);
}
// Assign the G matrix
// Trend part
G[1,1] = 1;
G[1,2] = 1;
G[2,1] = 0;
G[2,2] = 1;
// 12-month seasonal part
G[3,3] = cos(sampling*2*pi()/12);
G[3,4] = sin(sampling*2*pi()/12);
G[4,3] = -sin(sampling*2*pi()/12);
G[4,4] = cos(sampling*2*pi()/12);
// 6-month seasonal part
G[5,5] = cos(sampling*2*pi()/6);
G[5,6] = sin(sampling*2*pi()/6);
G[6,5] = -sin(sampling*2*pi()/6);
G[6,6] = cos(sampling*2*pi()/6);
// Regressor part
for(i in 1:nreg){
G[6+i,6+i] = 1;
}
// AR process part
G[6+nreg+1,6+nreg+1] = rhoAR1;
// Assign W matrix
W[1,1] = 1e-10;
W[2,2] = sigma_trend^2;
W[3,3] = sigma_seas^2;
W[4,4] = sigma_seas^2;
W[5,5] = sigma_seas^2;
W[6,6] = sigma_seas^2;
for(i in 1:nreg){
W[6+i,6+i] = 1e-10;
}
W[nx,nx] = sigma_AR^2;
// Assign C matrix
// Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes)
for(i in 1:(nx-1)){
C[i,i] = S;
}
// Prior (stationary) covariance of the AR1 process
C[nx,nx] = sigma_AR^2/(1-rhoAR1^2);
// Kalman filtering
// Initialize C_bar
C_bar[1] = C;
// Do the forward filtering
for(t in 2:N+1){
x_hat[t] = G*x_bar[t-1];
C_hat[t] = G*(C_bar[t-1]*G') + W;
C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2;
K[t] = (C_hat[t]*F[t])/C_y[t];
v[t] = d[t-1] - F[t]'*x_hat[t];
x_bar[t] = x_hat[t] + K[t]*v[t];
C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t];
}
}
model {
// Priors on hyper parameters
sigma_trend ~ normal(0, sigma_trend_prior);
sigma_seas ~ normal(0, sigma_seas_prior);
sigma_AR ~ normal(0, sigma_AR_prior);
rhoAR1 ~ uniform(0, 1);
// Construct target density
for(t in 2:N+1){
target += normal_lpdf(v[t] | 0, sqrt(C_y[t]));
}
}
generated quantities {
// Declare Kalman smoother quantities
vector[N] trend;
vector[N] slope;
vector[N] seasonal;
vector[4] seasonal_components[N];
vector[N] ar;
vector[nreg] beta;
vector[nx] x[N];
vector[nx] x_realization[N+1];
vector[nx] x_ubar[N+1];
vector[nx] x_realization_hat[N+1];
vector[N+1] y_realization;
vector[N+1] v_realization;
vector[nx] r[N+2];
vector[nx] r_realization[N+2];
matrix[nx,nx] L[N+2];
matrix[nx,nx] M[N+2];
matrix[nx,nx] C_twidle[N+1];
vector[nx] x_twidle[N+1];
vector[nx] x_realization_twidle[N+1];
// Initialize matrix quantities and end points of Kalman smoothing vectors
for(t in 1:N+1){
L[t] = rep_matrix(0, nx, nx);
M[t] = rep_matrix(0, nx, nx);
C_twidle[t] = rep_matrix(0, nx, nx);
}
L[N+2] = rep_matrix(0, nx, nx);
M[N+2] = rep_matrix(0, nx, nx);
r[N+2] = rep_vector(0, nx);
r_realization[N+2] = rep_vector(0, nx);
// Generate a draw from the state-space equations
x_realization[1] = multi_normal_rng(rep_vector(0, nx), C);
y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]);
for(t in 2:N+1){
x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W);
y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]);
}
// Generate Kalman filter of realization; x_realization_hat
x_ubar[1] = rep_vector(0, nx);
for(t in 2:N+1){
x_realization_hat[t] = G*x_ubar[t-1];
v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t];
x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t];
}
// Generate Kalman smoother of realization and of data
for(t in 1:N+1){
L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]');
r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1];
r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1];
M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]);
x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t];
x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t];
C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]);
}
for(t in 1:N){
x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1];
trend[t] = x[t][1]*data_range + data_mean;
slope[t] = x[t][2]*data_range;
seasonal[t] = (x[t][3] + x[t][5])*data_range;
seasonal_components[t][1] = x[t][3]*data_range;
seasonal_components[t][2] = x[t][4]*data_range;
seasonal_components[t][3] = x[t][5]*data_range;
seasonal_components[t][4] = x[t][6]*data_range;
ar[t] = x[t][nx]*data_range;
}
for(i in 1:nreg){
beta[i] = x[1][6+i]*data_range;
}
}
"""
dlm_vanilla_ar2 = """
data {
int N; // number of time steps
int nreg; // number of regressors
real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2
vector[N] time_series; // n-composites vectors of N-time-steps -- the data
vector[N] stddev; // corresponding std deviation for each data point
vector[nreg] regressors[N]; // nreg regressors of N-time-steps
real<lower=0> sigma_trend_prior;
real<lower=0> sigma_seas_prior;
real<lower=0> sigma_AR_prior;
real<lower=0> S;
}
transformed data {
// Re-scaled data
real data_mean = mean(time_series);
real data_range = max(time_series) - min(time_series);
vector[N] d = (time_series - data_mean)/data_range;
vector[N] s = stddev/data_range;
// Set value of nx
int nx = nreg+8;
// Declare F-vector (observation projection vector)
vector[nx] F[N+1];
// Initialize
for(t in 1:N+1){
F[t] = rep_vector(0, nx);
}
// First time point
F[1][1] = 1;
F[1][2] = 0;
F[1][3] = 1;
F[1][4] = 0;
F[1][5] = 1;
F[1][6] = 0;
for(i in 1:nreg){
F[1][6+i] = 0;
}
F[1][6+nreg+1] = 1;
// Loop over next time points
for(t in 2:N+1){
F[t][1] = 1;
F[t][2] = 0;
F[t][3] = 1;
F[t][4] = 0;
F[t][5] = 1;
F[t][6] = 0;
for(i in 1:nreg){
F[t][6+i] = regressors[t-1][i];
}
F[t][6+nreg+1] = 1;
}
}
parameters {
real<lower=0> sigma_trend;
real<lower=0> sigma_seas;
real<lower=0> sigma_AR;
real<lower=0, upper=0.5> rhoAR1;
real<lower=0, upper=1.0> rhoAR2;
}
transformed parameters{
// Declare intermediate Kalman objects
vector[nx] x_hat[N+1];
vector[nx] x_bar[N+1];
matrix[nx,nx] C_hat[N+1];
vector[N+1] C_y;
vector[nx] K[N+1];
matrix[nx,nx] C_bar[N+1];
vector[N+1] v;
// Declare state-space model matrices
matrix[nx, nx] G; // G-matrix (state transition matrix)
matrix[nx, nx] W; // W-matrix (state covariance)
matrix[nx, nx] C; // C-matrix (observation covariance)
// Initialize state-space matrices
G = rep_matrix(0, nx, nx);
W = rep_matrix(0, nx, nx);
C = rep_matrix(0, nx, nx);
// Initialize Kalman filter stuff
C_y = rep_vector(0, N+1);
v = rep_vector(0, N+1);
for(t in 1:N+1){
x_hat[t] = rep_vector(0, nx);
x_bar[t] = rep_vector(0, nx);
K[t] = rep_vector(0, nx);
C_bar[t] = rep_matrix(0, nx, nx);
C_hat[t] = rep_matrix(0, nx, nx);
}
// Assign the G matrix
// Trend part
G[1,1] = 1;
G[1,2] = 1;
G[2,1] = 0;
G[2,2] = 1;
// 12-month seasonal part
G[3,3] = cos(sampling*2*pi()/12);
G[3,4] = sin(sampling*2*pi()/12);
G[4,3] = -sin(sampling*2*pi()/12);
G[4,4] = cos(sampling*2*pi()/12);
// 6-month seasonal part
G[5,5] = cos(sampling*2*pi()/6);
G[5,6] = sin(sampling*2*pi()/6);
G[6,5] = -sin(sampling*2*pi()/6);
G[6,6] = cos(sampling*2*pi()/6);
// Regressor part
for(i in 1:nreg){
G[6+i,6+i] = 1;
}
// AR process part
G[6+nreg+1,6+nreg+1] = rhoAR1;
G[6+nreg+1,6+nreg+2] = rhoAR2;
G[6+nreg+2, 6+nreg+1] = 1;
// Assign W matrix
W[1,1] = 1e-10;
W[2,2] = sigma_trend^2;
W[3,3] = sigma_seas^2;
W[4,4] = sigma_seas^2;
W[5,5] = sigma_seas^2;
W[6,6] = sigma_seas^2;
for(i in 1:nreg){
W[6+i,6+i] = 1e-20;
}
W[nx-1,nx-1] = sigma_AR^2;
W[nx,nx] = 1e-20;
// Assign C matrix
// Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes)
for(i in 1:nx){
C[i,i] = S;
}
// Prior (stationary) covariance of the AR1 process
C[nx, nx] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2));
C[nx-1, nx-1] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2));
C[nx, nx-1] = C[nx, nx]*rhoAR1/(1-rhoAR2);
C[nx-1, nx] = C[nx, nx]*rhoAR1/(1-rhoAR2);
// Kalman filtering
// Initialize C_bar
C_bar[1] = C;
// Do the forward filtering
for(t in 2:N+1){
x_hat[t] = G*x_bar[t-1];
C_hat[t] = G*(C_bar[t-1]*G') + W;
C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2;
K[t] = (C_hat[t]*F[t])/C_y[t];
v[t] = d[t-1] - F[t]'*x_hat[t];
x_bar[t] = x_hat[t] + K[t]*v[t];
C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t];
}
}
model {
// Priors on hyper parameters
sigma_trend ~ normal(0, sigma_trend_prior);
sigma_seas ~ normal(0, sigma_seas_prior);
sigma_AR ~ normal(0, sigma_AR_prior);
rhoAR1 ~ uniform(0, 0.5);
rhoAR2 ~ uniform(0, 1-rhoAR1);
// Construct target density
for(t in 2:N+1){
target += normal_lpdf(v[t] | 0, sqrt(C_y[t]));
}
}
generated quantities {
// Declare Kalman smoother quantities
vector[N] trend;
vector[N] slope;
vector[N] seasonal;
vector[N] ar;
vector[nreg] beta;
vector[nx] x[N];
vector[nx] x_realization[N+1];
vector[nx] x_ubar[N+1];
vector[nx] x_realization_hat[N+1];
vector[N+1] y_realization;
vector[N+1] v_realization;
vector[nx] r[N+2];
vector[nx] r_realization[N+2];
matrix[nx,nx] L[N+2];
matrix[nx,nx] M[N+2];
matrix[nx,nx] C_twidle[N+1];
vector[nx] x_twidle[N+1];
vector[nx] x_realization_twidle[N+1];
// Initialize matrix quantities and end points of Kalman smoothing vectors
for(t in 1:N+1){
L[t] = rep_matrix(0, nx, nx);
M[t] = rep_matrix(0, nx, nx);
C_twidle[t] = rep_matrix(0, nx, nx);
}
L[N+2] = rep_matrix(0, nx, nx);
M[N+2] = rep_matrix(0, nx, nx);
r[N+2] = rep_vector(0, nx);
r_realization[N+2] = rep_vector(0, nx);
// Generate a draw from the state-space equations
x_realization[1] = multi_normal_rng(rep_vector(0, nx), C);
y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]);
for(t in 2:N+1){
x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W);
y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]);
}
// Generate Kalman filter of realization; x_realization_hat
x_ubar[1] = rep_vector(0, nx);
for(t in 2:N+1){
x_realization_hat[t] = G*x_ubar[t-1];
v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t];
x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t];
}
// Generate Kalman smoother of realization and of data
for(t in 1:N+1){
L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]');
r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1];
r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1];
M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]);
x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t];
x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t];
C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]);
}
for(t in 1:N){
x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1];
trend[t] = x[t][1]*data_range + data_mean;
slope[t] = x[t][2]*data_range;
seasonal[t] = (x[t][3] + x[t][5])*data_range;
ar[t] = x[t][nx]*data_range;
}
for(i in 1:nreg){
beta[i] = x[1][6+i]*data_range;
}
}
"""
dlm_dynregs_ar1 = """
data {
int N; // number of time steps
int nreg; // number of regressors
real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2
vector[N] time_series; // n-composites vectors of N-time-steps -- the data
vector[N] stddev; // corresponding std deviation for each data point
vector[nreg] regressors[N]; // nreg regressors of N-time-steps
real<lower=0> sigma_trend_prior;
real<lower=0> sigma_seas_prior;
real<lower=0> sigma_AR_prior;
vector[nreg] sigma_reg_prior;
real<lower=0> S;
}
transformed data {
// Re-scaled data
real data_mean = mean(time_series);
real data_range = max(time_series) - min(time_series);
vector[N] d = (time_series - data_mean)/data_range;
vector[N] s = stddev/data_range;
// Set value of nx
int nx = nreg+7;
// Declare F-vector (observation projection vector)
vector[nx] F[N+1];
// Initialize
for(t in 1:N+1){
F[t] = rep_vector(0, nx);
}
// First time point
F[1][1] = 1;
F[1][2] = 0;
F[1][3] = 1;
F[1][4] = 0;
F[1][5] = 1;
F[1][6] = 0;
for(i in 1:nreg){
F[1][6+i] = 0;
}
F[1][6+nreg+1] = 1;
// Loop over next time points
for(t in 2:N+1){
F[t][1] = 1;
F[t][2] = 0;
F[t][3] = 1;
F[t][4] = 0;
F[t][5] = 1;
F[t][6] = 0;
for(i in 1:nreg){
F[t][6+i] = regressors[t-1][i];
}
F[t][6+nreg+1] = 1;
}
}
parameters {
real<lower=0> sigma_trend;
real<lower=0> sigma_seas;
real<lower=0> sigma_AR;
real<lower=0, upper=1> rhoAR1;
vector<lower=0>[nreg] sigma_reg;
}
transformed parameters{
// Declare intermediate Kalman objects
vector[nx] x_hat[N+1];
vector[nx] x_bar[N+1];
matrix[nx,nx] C_hat[N+1];
vector[N+1] C_y;
vector[nx] K[N+1];
matrix[nx,nx] C_bar[N+1];
vector[N+1] v;
// Declare state-space model matrices
matrix[nx, nx] G; // G-matrix (state transition matrix)
matrix[nx, nx] W; // W-matrix (state covariance)
matrix[nx, nx] C; // C-matrix (observation covariance)
// Initialize state-space matrices
G = rep_matrix(0, nx, nx);
W = rep_matrix(0, nx, nx);
C = rep_matrix(0, nx, nx);
// Initialize Kalman filter stuff
C_y = rep_vector(0, N+1);
v = rep_vector(0, N+1);
for(t in 1:N+1){
x_hat[t] = rep_vector(0, nx);
x_bar[t] = rep_vector(0, nx);
K[t] = rep_vector(0, nx);
C_bar[t] = rep_matrix(0, nx, nx);
C_hat[t] = rep_matrix(0, nx, nx);
}
// Assign the G matrix
// Trend part
G[1,1] = 1;
G[1,2] = 1;
G[2,1] = 0;
G[2,2] = 1;
// 12-month seasonal part
G[3,3] = cos(sampling*2*pi()/12);
G[3,4] = sin(sampling*2*pi()/12);
G[4,3] = -sin(sampling*2*pi()/12);
G[4,4] = cos(sampling*2*pi()/12);
// 6-month seasonal part
G[5,5] = cos(sampling*2*pi()/6);
G[5,6] = sin(sampling*2*pi()/6);
G[6,5] = -sin(sampling*2*pi()/6);
G[6,6] = cos(sampling*2*pi()/6);
// Regressor part
for(i in 1:nreg){
G[6+i,6+i] = 1;
}
// AR process part
G[6+nreg+1,6+nreg+1] = rhoAR1;
// Assign W matrix
W[1,1] = 1e-10;
W[2,2] = sigma_trend^2;
W[3,3] = sigma_seas^2;
W[4,4] = sigma_seas^2;
W[5,5] = sigma_seas^2;
W[6,6] = sigma_seas^2;
for(i in 1:nreg){
W[6+i,6+i] = sigma_reg[i]^2;
}
W[nx,nx] = sigma_AR^2;
// Assign C matrix
// Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes)
for(i in 1:(nx-1)){
C[i,i] = S;
}
// Prior (stationary) covariance of the AR1 process
C[nx,nx] = sigma_AR^2/(1-rhoAR1^2);
// Kalman filtering
// Initialize C_bar
C_bar[1] = C;
// Do the forward filtering
for(t in 2:N+1){
x_hat[t] = G*x_bar[t-1];
C_hat[t] = G*(C_bar[t-1]*G') + W;
C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2;
K[t] = (C_hat[t]*F[t])/C_y[t];
v[t] = d[t-1] - F[t]'*x_hat[t];
x_bar[t] = x_hat[t] + K[t]*v[t];
C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t];
}
}
model {
// Priors on hyper parameters
sigma_trend ~ normal(0, sigma_trend_prior);
sigma_seas ~ normal(0, sigma_seas_prior);
sigma_AR ~ normal(0, sigma_AR_prior);
rhoAR1 ~ uniform(0, 1);
for(i in 1:nreg){
sigma_reg[i] ~ normal(0, sigma_reg_prior[i]);
}
// Construct target density
for(t in 2:N+1){
target += normal_lpdf(v[t] | 0, sqrt(C_y[t]));
}
}
generated quantities {
// Declare Kalman smoother quantities
vector[N] trend;
vector[N] slope;
vector[N] seasonal;
vector[4] seasonal_components[N];
vector[N] ar;
vector[nreg] beta[N];
vector[nx] x[N];
vector[nx] x_realization[N+1];
vector[nx] x_ubar[N+1];
vector[nx] x_realization_hat[N+1];
vector[N+1] y_realization;
vector[N+1] v_realization;
vector[nx] r[N+2];
vector[nx] r_realization[N+2];
matrix[nx,nx] L[N+2];
matrix[nx,nx] M[N+2];
matrix[nx,nx] C_twidle[N+1];
vector[nx] x_twidle[N+1];
vector[nx] x_realization_twidle[N+1];
// Initialize matrix quantities and end points of Kalman smoothing vectors
for(t in 1:N+1){
L[t] = rep_matrix(0, nx, nx);
M[t] = rep_matrix(0, nx, nx);
C_twidle[t] = rep_matrix(0, nx, nx);
}
L[N+2] = rep_matrix(0, nx, nx);
M[N+2] = rep_matrix(0, nx, nx);
r[N+2] = rep_vector(0, nx);
r_realization[N+2] = rep_vector(0, nx);
// Generate a draw from the state-space equations
x_realization[1] = multi_normal_rng(rep_vector(0, nx), C);
y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]);
for(t in 2:N+1){
x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W);
y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]);
}
// Generate Kalman filter of realization; x_realization_hat
x_ubar[1] = rep_vector(0, nx);
for(t in 2:N+1){
x_realization_hat[t] = G*x_ubar[t-1];
v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t];
x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t];
}
// Generate Kalman smoother of realization and of data
for(t in 1:N+1){
L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]');
r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1];
r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1];
M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]);
x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t];
x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t];
C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]);
}
for(t in 1:N){
x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1];
trend[t] = x[t][1]*data_range + data_mean;
slope[t] = x[t][2]*data_range;
seasonal[t] = (x[t][3] + x[t][5])*data_range;
seasonal_components[t][1] = x[t][3]*data_range;
seasonal_components[t][2] = x[t][4]*data_range;
seasonal_components[t][3] = x[t][5]*data_range;
seasonal_components[t][4] = x[t][6]*data_range;
ar[t] = x[t][nx]*data_range;
}
for(i in 1:nreg){
for(t in 1:N){
beta[t][i] = x[t][6+i]*data_range;
}
}
}
"""
dlm_noregs_ar1 = """
data {
int N; // number of time steps
real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2
vector[N] time_series; // n-composites vectors of N-time-steps -- the data
vector[N] stddev; // corresponding std deviation for each data point
real<lower=0> sigma_trend_prior;
real<lower=0> sigma_seas_prior;
real<lower=0> sigma_AR_prior;
real<lower=0> S;
}
transformed data {
// Re-scaled data
real data_mean = mean(time_series);
real data_range = max(time_series) - min(time_series);
vector[N] d = (time_series - data_mean)/data_range;
vector[N] s = stddev/data_range;
// Set value of nx
int nx = 7;
// Declare F-vector (observation projection vector)
vector[nx] F[N+1];
// Initialize
for(t in 1:N+1){
F[t] = rep_vector(0, nx);
}
// First time point
F[1][1] = 1;
F[1][2] = 0;
F[1][3] = 1;
F[1][4] = 0;
F[1][5] = 1;
F[1][6] = 0;
F[1][7] = 1;
// Loop over next time points
for(t in 2:N+1){
F[t][1] = 1;
F[t][2] = 0;
F[t][3] = 1;
F[t][4] = 0;
F[t][5] = 1;
F[t][6] = 0;
F[t][7] = 1;
}
}
parameters {
real<lower=0> sigma_trend;
real<lower=0> sigma_seas;
real<lower=0> sigma_AR;
real<lower=0, upper=1> rhoAR1;
}
transformed parameters{
// Declare intermediate Kalman objects
vector[nx] x_hat[N+1];
vector[nx] x_bar[N+1];
matrix[nx,nx] C_hat[N+1];
vector[N+1] C_y;
vector[nx] K[N+1];
matrix[nx,nx] C_bar[N+1];
vector[N+1] v;
// Declare state-space model matrices
matrix[nx, nx] G; // G-matrix (state transition matrix)
matrix[nx, nx] W; // W-matrix (state covariance)
matrix[nx, nx] C; // C-matrix (observation covariance)
// Initialize state-space matrices
G = rep_matrix(0, nx, nx);
W = rep_matrix(0, nx, nx);
C = rep_matrix(0, nx, nx);
// Initialize Kalman filter stuff
C_y = rep_vector(0, N+1);
v = rep_vector(0, N+1);
for(t in 1:N+1){
x_hat[t] = rep_vector(0, nx);
x_bar[t] = rep_vector(0, nx);
K[t] = rep_vector(0, nx);
C_bar[t] = rep_matrix(0, nx, nx);
C_hat[t] = rep_matrix(0, nx, nx);
}
// Assign the G matrix
// Trend part
G[1,1] = 1;
G[1,2] = 1;
G[2,1] = 0;
G[2,2] = 1;
// 12-month seasonal part
G[3,3] = cos(sampling*2*pi()/12);
G[3,4] = sin(sampling*2*pi()/12);
G[4,3] = -sin(sampling*2*pi()/12);
G[4,4] = cos(sampling*2*pi()/12);
// 6-month seasonal part
G[5,5] = cos(sampling*2*pi()/6);
G[5,6] = sin(sampling*2*pi()/6);
G[6,5] = -sin(sampling*2*pi()/6);
G[6,6] = cos(sampling*2*pi()/6);
// AR process part
G[7,7] = rhoAR1;
// Assign W matrix
W[1,1] = 1e-10;
W[2,2] = sigma_trend^2;
W[3,3] = sigma_seas^2;
W[4,4] = sigma_seas^2;
W[5,5] = sigma_seas^2;
W[6,6] = sigma_seas^2;
W[7,7] = sigma_AR^2;
// Assign C matrix
// Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes)
for(i in 1:(nx-1)){
C[i,i] = S;
}
// Prior (stationary) covariance of the AR1 process
C[nx,nx] = sigma_AR^2/(1-rhoAR1^2);
// Kalman filtering
// Initialize C_bar
C_bar[1] = C;
// Do the forward filtering
for(t in 2:N+1){
x_hat[t] = G*x_bar[t-1];
C_hat[t] = G*(C_bar[t-1]*G') + W;
C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2;
K[t] = (C_hat[t]*F[t])/C_y[t];
v[t] = d[t-1] - F[t]'*x_hat[t];
x_bar[t] = x_hat[t] + K[t]*v[t];
C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t];
}
}
model {
// Priors on hyper parameters
sigma_trend ~ normal(0, sigma_trend_prior);
sigma_seas ~ normal(0, sigma_seas_prior);
sigma_AR ~ normal(0, sigma_AR_prior);
rhoAR1 ~ uniform(0, 1);
// Construct target density
for(t in 2:N+1){
target += normal_lpdf(v[t] | 0, sqrt(C_y[t]));
}
}
generated quantities {
// Declare Kalman smoother quantities
vector[N] trend;
vector[N] slope;
vector[N] seasonal;
vector[4] seasonal_components[N];
vector[N] ar;
vector[nx] x[N];
vector[nx] x_realization[N+1];
vector[nx] x_ubar[N+1];
vector[nx] x_realization_hat[N+1];
vector[N+1] y_realization;
vector[N+1] v_realization;
vector[nx] r[N+2];
vector[nx] r_realization[N+2];
matrix[nx,nx] L[N+2];
matrix[nx,nx] M[N+2];
matrix[nx,nx] C_twidle[N+1];
vector[nx] x_twidle[N+1];
vector[nx] x_realization_twidle[N+1];
// Initialize matrix quantities and end points of Kalman smoothing vectors
for(t in 1:N+1){
L[t] = rep_matrix(0, nx, nx);
M[t] = rep_matrix(0, nx, nx);
C_twidle[t] = rep_matrix(0, nx, nx);
}
L[N+2] = rep_matrix(0, nx, nx);
M[N+2] = rep_matrix(0, nx, nx);
r[N+2] = rep_vector(0, nx);
r_realization[N+2] = rep_vector(0, nx);
// Generate a draw from the state-space equations
x_realization[1] = multi_normal_rng(rep_vector(0, nx), C);
y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]);
for(t in 2:N+1){
x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W);
y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]);
}
// Generate Kalman filter of realization; x_realization_hat
x_ubar[1] = rep_vector(0, nx);
for(t in 2:N+1){
x_realization_hat[t] = G*x_ubar[t-1];
v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t];
x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t];
}
// Generate Kalman smoother of realization and of data
for(t in 1:N+1){
L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]');
r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1];
r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1];
M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]);
x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t];
x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t];
C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]);
}
for(t in 1:N){
x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1];
trend[t] = x[t][1]*data_range + data_mean;
slope[t] = x[t][2]*data_range;
seasonal[t] = (x[t][3] + x[t][5])*data_range;
seasonal_components[t][1] = x[t][3]*data_range;
seasonal_components[t][2] = x[t][4]*data_range;
seasonal_components[t][3] = x[t][5]*data_range;
seasonal_components[t][4] = x[t][6]*data_range;
ar[t] = x[t][nx]*data_range;
}
}
"""
dlm_vanilla_ar1_noseasonal = """
data {
int N; // number of time steps
int nreg; // number of regressors
real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2
vector[N] time_series; // n-composites vectors of N-time-steps -- the data
vector[N] stddev; // corresponding std deviation for each data point
vector[nreg] regressors[N]; // nreg regressors of N-time-steps
real<lower=0> sigma_trend_prior;
real<lower=0> sigma_AR_prior;
real<lower=0> S;
}
transformed data {
// Re-scaled data
real data_mean = mean(time_series);
real data_range = max(time_series) - min(time_series);
vector[N] d = (time_series - data_mean)/data_range;
vector[N] s = stddev/data_range;
// Set value of nx
int nx = nreg+3;
// Declare F-vector (observation projection vector)
vector[nx] F[N+1];
// Initialize
for(t in 1:N+1){
F[t] = rep_vector(0, nx);
}
// First time point
F[1][1] = 1;
F[1][2] = 0;
for(i in 1:nreg){
F[1][2+i] = 0;
}
F[1][2+nreg+1] = 1;
// Loop over next time points
for(t in 2:N+1){
F[t][1] = 1;
F[t][2] = 0;
for(i in 1:nreg){
F[t][2+i] = regressors[t-1][i];
}
F[t][2+nreg+1] = 1;
}
}
parameters {
real<lower=0> sigma_trend;
real<lower=0> sigma_AR;
real<lower=0, upper=1> rhoAR1;
}
transformed parameters{
// Declare intermediate Kalman objects
vector[nx] x_hat[N+1];
vector[nx] x_bar[N+1];
matrix[nx,nx] C_hat[N+1];
vector[N+1] C_y;
vector[nx] K[N+1];
matrix[nx,nx] C_bar[N+1];
vector[N+1] v;
// Declare state-space model matrices
matrix[nx, nx] G; // G-matrix (state transition matrix)
matrix[nx, nx] W; // W-matrix (state covariance)
matrix[nx, nx] C; // C-matrix (observation covariance)
// Initialize state-space matrices
G = rep_matrix(0, nx, nx);
W = rep_matrix(0, nx, nx);
C = rep_matrix(0, nx, nx);
// Initialize Kalman filter stuff
C_y = rep_vector(0, N+1);
v = rep_vector(0, N+1);
for(t in 1:N+1){
x_hat[t] = rep_vector(0, nx);
x_bar[t] = rep_vector(0, nx);
K[t] = rep_vector(0, nx);
C_bar[t] = rep_matrix(0, nx, nx);
C_hat[t] = rep_matrix(0, nx, nx);
}
// Assign the G matrix
// Trend part
G[1,1] = 1;
G[1,2] = 1;
G[2,1] = 0;
G[2,2] = 1;
// Regressor part
for(i in 1:nreg){
G[2+i,2+i] = 1;
}
// AR process part
G[nx,nx] = rhoAR1;
// Assign W matrix
W[1,1] = 1e-10;
W[2,2] = sigma_trend^2;
for(i in 1:nreg){
W[2+i,2+i] = 1e-10;
}
W[nx,nx] = sigma_AR^2;
// Assign C matrix
// Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes)
for(i in 1:(nx-1)){
C[i,i] = S;
}
// Prior (stationary) covariance of the AR1 process
C[nx,nx] = sigma_AR^2/(1-rhoAR1^2);
// Kalman filtering
// Initialize C_bar
C_bar[1] = C;
// Do the forward filtering
for(t in 2:N+1){
x_hat[t] = G*x_bar[t-1];
C_hat[t] = G*(C_bar[t-1]*G') + W;
C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2;
K[t] = (C_hat[t]*F[t])/C_y[t];
v[t] = d[t-1] - F[t]'*x_hat[t];
x_bar[t] = x_hat[t] + K[t]*v[t];
C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t];
}
}
model {
// Priors on hyper parameters
sigma_trend ~ normal(0, sigma_trend_prior);
sigma_AR ~ normal(0, sigma_AR_prior);
rhoAR1 ~ uniform(0, 1);
// Construct target density
for(t in 2:N+1){
target += normal_lpdf(v[t] | 0, sqrt(C_y[t]));
}
}
generated quantities {
// Declare Kalman smoother quantities
vector[N] trend;
vector[N] slope;
vector[N] ar;
vector[nreg] beta;
vector[nx] x[N];
vector[nx] x_realization[N+1];
vector[nx] x_ubar[N+1];
vector[nx] x_realization_hat[N+1];
vector[N+1] y_realization;
vector[N+1] v_realization;
vector[nx] r[N+2];
vector[nx] r_realization[N+2];
matrix[nx,nx] L[N+2];
matrix[nx,nx] M[N+2];
matrix[nx,nx] C_twidle[N+1];
vector[nx] x_twidle[N+1];
vector[nx] x_realization_twidle[N+1];
// Initialize matrix quantities and end points of Kalman smoothing vectors
for(t in 1:N+1){
L[t] = rep_matrix(0, nx, nx);
M[t] = rep_matrix(0, nx, nx);
C_twidle[t] = rep_matrix(0, nx, nx);
}
L[N+2] = rep_matrix(0, nx, nx);
M[N+2] = rep_matrix(0, nx, nx);
r[N+2] = rep_vector(0, nx);
r_realization[N+2] = rep_vector(0, nx);
// Generate a draw from the state-space equations
x_realization[1] = multi_normal_rng(rep_vector(0, nx), C);
y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]);
for(t in 2:N+1){
x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W);
y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]);
}
// Generate Kalman filter of realization; x_realization_hat
x_ubar[1] = rep_vector(0, nx);
for(t in 2:N+1){
x_realization_hat[t] = G*x_ubar[t-1];
v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t];
x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t];
}
// Generate Kalman smoother of realization and of data
for(t in 1:N+1){
L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]');
r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1];
r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1];
M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]);
x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t];
x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t];
C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]);
}
for(t in 1:N){
x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1];
trend[t] = x[t][1]*data_range + data_mean;
slope[t] = x[t][2]*data_range;
ar[t] = x[t][nx]*data_range;
}
for(i in 1:nreg){
beta[i] = x[1][2+i]*data_range;
}
}
"""
dlm_vanilla_ar2_noseasonal = """
data {
int N; // number of time steps
int nreg; // number of regressors
real sampling; // sampling of data: daily = 0, monthly = 1, annual = 2
vector[N] time_series; // n-composites vectors of N-time-steps -- the data
vector[N] stddev; // corresponding std deviation for each data point
vector[nreg] regressors[N]; // nreg regressors of N-time-steps
real<lower=0> sigma_trend_prior;
real<lower=0> sigma_AR_prior;
real<lower=0> S;
}
transformed data {
// Re-scaled data
real data_mean = mean(time_series);
real data_range = max(time_series) - min(time_series);
vector[N] d = (time_series - data_mean)/data_range;
vector[N] s = stddev/data_range;
// Set value of nx
int nx = nreg+4;
// Declare F-vector (observation projection vector)
vector[nx] F[N+1];
// Initialize
for(t in 1:N+1){
F[t] = rep_vector(0, nx);
}
// First time point
F[1][1] = 1;
F[1][2] = 0;
for(i in 1:nreg){
F[1][2+i] = 0;
}
F[1][2+nreg+1] = 1;
// Loop over next time points
for(t in 2:N+1){
F[t][1] = 1;
F[t][2] = 0;
for(i in 1:nreg){
F[t][2+i] = regressors[t-1][i];
}
F[t][2+nreg+1] = 1;
}
}
parameters {
real<lower=0> sigma_trend;
real<lower=0> sigma_AR;
real<lower=0, upper=0.5> rhoAR1;
real<lower=0, upper=1.0> rhoAR2;
}
transformed parameters{
// Declare intermediate Kalman objects
vector[nx] x_hat[N+1];
vector[nx] x_bar[N+1];
matrix[nx,nx] C_hat[N+1];
vector[N+1] C_y;
vector[nx] K[N+1];
matrix[nx,nx] C_bar[N+1];
vector[N+1] v;
// Declare state-space model matrices
matrix[nx, nx] G; // G-matrix (state transition matrix)
matrix[nx, nx] W; // W-matrix (state covariance)
matrix[nx, nx] C; // C-matrix (observation covariance)
// Initialize state-space matrices
G = rep_matrix(0, nx, nx);
W = rep_matrix(0, nx, nx);
C = rep_matrix(0, nx, nx);
// Initialize Kalman filter stuff
C_y = rep_vector(0, N+1);
v = rep_vector(0, N+1);
for(t in 1:N+1){
x_hat[t] = rep_vector(0, nx);
x_bar[t] = rep_vector(0, nx);
K[t] = rep_vector(0, nx);
C_bar[t] = rep_matrix(0, nx, nx);
C_hat[t] = rep_matrix(0, nx, nx);
}
// Assign the G matrix
// Trend part
G[1,1] = 1;
G[1,2] = 1;
G[2,1] = 0;
G[2,2] = 1;
// Regressor part
for(i in 1:nreg){
G[2+i,2+i] = 1;
}
// AR process part
G[2+nreg+1,2+nreg+1] = rhoAR1;
G[2+nreg+1,2+nreg+2] = rhoAR2;
G[2+nreg+2,2+nreg+1] = 1;
// Assign W matrix
W[1,1] = 1e-10;
W[2,2] = sigma_trend^2;
for(i in 1:nreg){
W[2+i,2+i] = 1e-20;
}
W[nx-1,nx-1] = sigma_AR^2;
W[nx,nx] = 1e-20;
// Assign C matrix
// Prior covariance of regression coefficients (and seasonal cycle and trend amplitudes)
for(i in 1:nx){
C[i,i] = S;
}
// Prior (stationary) covariance of the AR1 process
C[nx, nx] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2));
C[nx-1, nx-1] = sigma_AR^2/(1-rhoAR1^2 - rhoAR2^2 - (2*rhoAR2*rhoAR1^2)/(1-rhoAR2));
C[nx, nx-1] = C[nx, nx]*rhoAR1/(1-rhoAR2);
C[nx-1, nx] = C[nx, nx]*rhoAR1/(1-rhoAR2);
// Kalman filtering
// Initialize C_bar
C_bar[1] = C;
// Do the forward filtering
for(t in 2:N+1){
x_hat[t] = G*x_bar[t-1];
C_hat[t] = G*(C_bar[t-1]*G') + W;
C_y[t] = F[t]'*C_hat[t]*F[t] + s[t-1]^2;
K[t] = (C_hat[t]*F[t])/C_y[t];
v[t] = d[t-1] - F[t]'*x_hat[t];
x_bar[t] = x_hat[t] + K[t]*v[t];
C_bar[t] = C_hat[t] - (K[t]*F[t]')*C_hat[t];
}
}
model {
// Priors on hyper parameters
sigma_trend ~ normal(0, sigma_trend_prior);
sigma_AR ~ normal(0, sigma_AR_prior);
rhoAR1 ~ uniform(0, 0.5);
rhoAR2 ~ uniform(0, 1-rhoAR1);
// Construct target density
for(t in 2:N+1){
target += normal_lpdf(v[t] | 0, sqrt(C_y[t]));
}
}
generated quantities {
// Declare Kalman smoother quantities
vector[N] trend;
vector[N] slope;
vector[N] ar;
vector[nreg] beta;
vector[nx] x[N];
vector[nx] x_realization[N+1];
vector[nx] x_ubar[N+1];
vector[nx] x_realization_hat[N+1];
vector[N+1] y_realization;
vector[N+1] v_realization;
vector[nx] r[N+2];
vector[nx] r_realization[N+2];
matrix[nx,nx] L[N+2];
matrix[nx,nx] M[N+2];
matrix[nx,nx] C_twidle[N+1];
vector[nx] x_twidle[N+1];
vector[nx] x_realization_twidle[N+1];
// Initialize matrix quantities and end points of Kalman smoothing vectors
for(t in 1:N+1){
L[t] = rep_matrix(0, nx, nx);
M[t] = rep_matrix(0, nx, nx);
C_twidle[t] = rep_matrix(0, nx, nx);
}
L[N+2] = rep_matrix(0, nx, nx);
M[N+2] = rep_matrix(0, nx, nx);
r[N+2] = rep_vector(0, nx);
r_realization[N+2] = rep_vector(0, nx);
// Generate a draw from the state-space equations
x_realization[1] = multi_normal_rng(rep_vector(0, nx), C);
y_realization[1] = F[1]'*x_realization[1] + normal_rng(0, 10*s[1]);
for(t in 2:N+1){
x_realization[t] = G*x_realization[t-1] + multi_normal_rng(rep_vector(0, nx), W);
y_realization[t] = F[t]'*x_realization[t] + normal_rng(0, s[t-1]);
}
// Generate Kalman filter of realization; x_realization_hat
x_ubar[1] = rep_vector(0, nx);
for(t in 2:N+1){
x_realization_hat[t] = G*x_ubar[t-1];
v_realization[t] = y_realization[t] - F[t]'*x_realization_hat[t];
x_ubar[t] = x_realization_hat[t] + K[t]*v_realization[t];
}
// Generate Kalman smoother of realization and of data
for(t in 1:N+1){
L[N+2-t] = G - G*(K[N+2-t]*F[N+2-t]');
r[N+2-t] = F[N+2-t]*v[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r[N+2-t+1];
r_realization[N+2-t] = F[N+2-t]*v_realization[N+2-t]/C_y[N+2-t] + L[N+2-t]'*r_realization[N+2-t+1];
M[N+2-t] = (F[N+2-t]*F[N+2-t]')/C_y[N+2-t] + L[N+2-t]'*(M[N+2-t+1]*L[N+2-t]);
x_twidle[N+2-t] = x_hat[N+2-t] + C_hat[N+2-t]*r[N+2-t];
x_realization_twidle[N+2-t] = x_realization_hat[N+2-t] + C_hat[N+2-t]*r_realization[N+2-t];
C_twidle[N+2-t] = C_hat[N+2-t] - C_hat[N+2-t]*(M[N+2-t]*C_hat[N+2-t]);
}
for(t in 1:N){
x[t] = x_realization[t+1] - x_realization_twidle[t+1] + x_twidle[t+1];
trend[t] = x[t][1]*data_range + data_mean;
slope[t] = x[t][2]*data_range;
ar[t] = x[t][nx]*data_range;
}
for(i in 1:nreg){
beta[i] = x[1][2+i]*data_range;
}
}
"""
| 28.374834 | 107 | 0.543068 | 7,799 | 42,619 | 2.846519 | 0.019618 | 0.023243 | 0.028378 | 0.032432 | 0.991171 | 0.989685 | 0.987072 | 0.987072 | 0.985811 | 0.985811 | 0 | 0.054798 | 0.265234 | 42,619 | 1,501 | 108 | 28.393738 | 0.654127 | 0 | 0 | 0.87391 | 0 | 0.071372 | 0.995777 | 0.129778 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
21d04024650544ba6b899b4bf5b9192f36e4c70c | 7,678 | py | Python | hw1/encoder.py | ReiZhao/Machine-Learning-Test | 6afbd4f0cb8b6c897d31164df56f267e3b6e96dd | [
"Apache-2.0"
] | null | null | null | hw1/encoder.py | ReiZhao/Machine-Learning-Test | 6afbd4f0cb8b6c897d31164df56f267e3b6e96dd | [
"Apache-2.0"
] | null | null | null | hw1/encoder.py | ReiZhao/Machine-Learning-Test | 6afbd4f0cb8b6c897d31164df56f267e3b6e96dd | [
"Apache-2.0"
] | null | null | null | # encoder.py
import torch
star16 = torch.Tensor(
[[1,1,0,0,0,0,0,0],
[0,1,1,0,0,0,0,0],
[0,0,1,1,0,0,0,0],
[0,0,0,1,1,0,0,0],
[0,0,0,0,1,1,0,0],
[0,0,0,0,0,1,1,0],
[0,0,0,0,0,0,1,1],
[1,0,0,0,0,0,0,1],
[1,1,0,0,0,0,0,1],
[1,1,1,0,0,0,0,0],
[0,1,1,1,0,0,0,0],
[0,0,1,1,1,0,0,0],
[0,0,0,1,1,1,0,0],
[0,0,0,0,1,1,1,0],
[0,0,0,0,0,1,1,1],
[1,0,0,0,0,0,1,1]])
# REPLACE heart18 WITH AN 18-by-14 TENSOR
# TO REPRODUCE IMAGE SHOWN IN SPEC
heart18 = torch.Tensor([[0,0,0,0,0,0,0,0,0,0,0,0,0,0],
[0,0,0,0,0,0,1,1,1,1,1,1,1,1],
[0,0,0,0,0,1,0,0,1,1,1,1,1,1],
[0,0,0,0,0,1,0,0,0,1,1,1,1,1],
[0,0,0,0,0,1,0,0,0,0,0,1,1,1],
[0,0,0,0,0,1,0,0,0,0,0,0,1,1],
[0,0,0,0,1,1,0,1,1,1,1,1,1,1],
[0,0,0,0,1,1,0,0,0,0,1,1,1,1],
[0,0,0,0,1,1,0,0,0,0,0,0,0,1],
[0,0,0,1,1,1,0,1,1,1,1,1,1,1],
[0,0,0,1,1,1,0,0,0,0,0,0,0,1],
[0,0,1,1,1,1,0,0,1,1,1,1,1,1],
[0,0,1,1,1,1,0,0,0,0,0,0,1,1],
[0,1,1,1,1,1,0,0,0,1,1,1,1,1],
[0,1,1,1,1,1,0,0,0,0,0,1,1,1],
[1,1,1,1,1,1,1,1,1,1,1,1,1,1],
[1,1,1,1,1,1,0,0,0,0,1,1,1,1],
[1,1,1,1,1,1,0,0,0,0,0,0,0,0]])
# REPLACE target1 WITH DATA TO PRODUCE
# A NEW IMAGE OF YOUR OWN CREATION
# Mario
target1 = torch.tensor([[0,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1],
[0,0,0,0,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1],
[1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,0,0,0,0,0,0,0,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,0,0,0,0,0,0,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,0,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,0,0,0,0,0,0,0,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,0,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,0,0,0,0,0,0,0,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,0,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,0,0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0],
[1,1,1,1,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0],
[1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0],
[1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0],
[1,1,1,1,0,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0],
[1,1,1,1,1,0,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0],
[1,1,1,1,1,1,0,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0]])
# REPLACE target2 WITH DATA TO PRODUCE
# A NEW IMAGE OF YOUR OWN CREATION
# clover
target2 = torch.Tensor([[0,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1, 1],
[0,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 1],
[1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 1, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,0,0,0,0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,0, 0, 0, 0, 0, 1, 0, 0, 0, 0, 0, 0, 0, 0],
[1,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,0, 0, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 0, 1, 1, 0, 0, 0, 0, 0, 0, 0],
[1,1,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,1,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 0, 0, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 1, 0, 0, 1, 1, 1, 0, 0, 0, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 1, 1, 1, 1, 0, 0, 0, 0, 0],
[1,1,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,1,1,1,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 0, 0, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 1, 0, 0, 1, 1, 1, 1, 1, 0, 0, 0, 0],
[1,0,0,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,0,0,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,1,0,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 0, 0, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,1,1,1,1,1,1, 1, 1, 1, 0, 1, 1, 1, 1, 1, 1, 0, 0, 0],
[1,1,1,1,1,1,0,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0],
[1,1,1,1,1,1,1,1,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 0, 0],
[1,1,1,1,1,1,1,0,0,0, 0, 0, 0, 0, 1, 1, 1, 1, 1, 1, 1, 1, 0]])
| 61.424 | 86 | 0.291352 | 2,020 | 7,678 | 1.107426 | 0.016337 | 0.78945 | 0.96692 | 1.026375 | 0.930264 | 0.930264 | 0.930264 | 0.930264 | 0.930264 | 0.930264 | 0 | 0.444345 | 0.420813 | 7,678 | 124 | 87 | 61.919355 | 0.058691 | 0.030737 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.009091 | 0 | 0.009091 | 0 | 0 | 0 | 1 | null | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 12 |
21e2f68c483f6ce41def48d2f6c17ccd7afcb111 | 49 | py | Python | train/__init__.py | massquantity/DNN-implementation | bca336749a2076fa2873f57d9c2b6f98ebf18a0d | [
"MIT"
] | null | null | null | train/__init__.py | massquantity/DNN-implementation | bca336749a2076fa2873f57d9c2b6f98ebf18a0d | [
"MIT"
] | null | null | null | train/__init__.py | massquantity/DNN-implementation | bca336749a2076fa2873f57d9c2b6f98ebf18a0d | [
"MIT"
] | null | null | null | from .train import train_DNN, train_DNN_minibatch | 49 | 49 | 0.877551 | 8 | 49 | 5 | 0.625 | 0.4 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.081633 | 49 | 1 | 49 | 49 | 0.888889 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 1 | 0 | null | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
df3dd3e6fea196845e8a2694ffa01a918c5e5769 | 198 | py | Python | pybayes/tests/__init__.py | strohel/PyBayes | 76d3ad12c20e29c5aadb688c4323fb0f1784f8ec | [
"MIT"
] | 66 | 2015-01-05T13:36:03.000Z | 2021-03-15T18:26:28.000Z | pybayes/tests/__init__.py | strohel/PyBayes | 76d3ad12c20e29c5aadb688c4323fb0f1784f8ec | [
"MIT"
] | 6 | 2015-02-23T19:45:11.000Z | 2021-07-21T08:21:52.000Z | pybayes/tests/__init__.py | strohel/PyBayes | 76d3ad12c20e29c5aadb688c4323fb0f1784f8ec | [
"MIT"
] | 22 | 2015-02-11T23:45:01.000Z | 2021-01-16T18:53:25.000Z | """PyBayes' tests"""
from pybayes.tests.test_filters import *
from pybayes.tests.test_wrappers_linalg import *
from pybayes.tests.test_wrappers_numpy import *
from pybayes.tests.test_pdfs import *
| 28.285714 | 48 | 0.808081 | 28 | 198 | 5.5 | 0.357143 | 0.38961 | 0.415584 | 0.519481 | 0.61039 | 0.441558 | 0 | 0 | 0 | 0 | 0 | 0 | 0.09596 | 198 | 6 | 49 | 33 | 0.860335 | 0.070707 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 8 |
df91e0e6be4c12de4631a4d2a130c4cee7e2a62e | 21,503 | py | Python | tests/milvus_python_test/entity/test_list_id_in_segment.py | JinHai-CN/milvus | b9ae5983776aef497ef91e994a3a9ae120a98868 | [
"Apache-2.0"
] | 4 | 2020-07-29T02:59:53.000Z | 2021-11-16T11:07:51.000Z | tests/milvus_python_test/entity/test_list_id_in_segment.py | Franceshe/milvus | 7e7f626b9c7288c1c82f5dafed87d33897f4b64e | [
"Apache-2.0"
] | null | null | null | tests/milvus_python_test/entity/test_list_id_in_segment.py | Franceshe/milvus | 7e7f626b9c7288c1c82f5dafed87d33897f4b64e | [
"Apache-2.0"
] | 2 | 2021-03-15T11:47:38.000Z | 2021-03-15T12:27:16.000Z | import time
import random
import pdb
import threading
import logging
from multiprocessing import Pool, Process
import pytest
from milvus import IndexType, MetricType
from utils import *
dim = 128
index_file_size = 10
GET_TIMEOUT = 30
nprobe = 1
top_k = 1
epsilon = 0.001
tag = "1970-01-01"
nb = 6000
class TestGetVectorIdsBase:
def get_valid_name(self, connect, collection):
vectors = gen_vector(nb, dim)
status, ids = connect.insert(collection, vectors)
assert status.OK()
status = connect.flush([collection])
assert status.OK()
status, info = connect.get_collection_stats(collection)
assert status.OK()
return info["partitions"][0]["segments"][0]["name"]
"""
******************************************************************
The following cases are used to test `list_id_in_segment` function
******************************************************************
"""
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_collection_name_None(self, connect, collection):
'''
target: get vector ids where collection name is None
method: call list_id_in_segment with the collection_name: None
expected: exception raised
'''
collection_name = None
name = self.get_valid_name(connect, collection)
with pytest.raises(Exception) as e:
status, vector_ids = connect.list_id_in_segment(collection_name, name)
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_collection_name_not_existed(self, connect, collection):
'''
target: get vector ids where collection name does not exist
method: call list_id_in_segment with a random collection_name, which is not in db
expected: status not ok
'''
collection_name = gen_unique_str("not_existed_collection")
name = self.get_valid_name(connect, collection)
status, vector_ids = connect.list_id_in_segment(collection_name, name)
assert not status.OK()
@pytest.fixture(
scope="function",
params=gen_invalid_collection_names()
)
def get_collection_name(self, request):
yield request.param
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_collection_name_invalid(self, connect, collection, get_collection_name):
'''
target: get vector ids where collection name is invalid
method: call list_id_in_segment with invalid collection_name
expected: status not ok
'''
collection_name = get_collection_name
name = self.get_valid_name(connect, collection)
status, vector_ids = connect.list_id_in_segment(collection_name, name)
assert not status.OK()
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_name_None(self, connect, collection):
'''
target: get vector ids where segment name is None
method: call list_id_in_segment with the name: None
expected: exception raised
'''
valid_name = self.get_valid_name(connect, collection)
segment = None
with pytest.raises(Exception) as e:
status, vector_ids = connect.list_id_in_segment(collection, segment)
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_name_not_existed(self, connect, collection):
'''
target: get vector ids where segment name does not exist
method: call list_id_in_segment with a random segment name
expected: status not ok
'''
valid_name = self.get_valid_name(connect, collection)
segment = gen_unique_str("not_existed_segment")
status, vector_ids = connect.list_id_in_segment(collection, segment)
logging.getLogger().info(vector_ids)
assert not status.OK()
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_without_index_A(self, connect, collection):
'''
target: get vector ids when there is no index
method: call list_id_in_segment and check if the segment contains vectors
expected: status ok
'''
vectors = gen_vector(10, dim)
status, ids = connect.insert(collection, vectors)
assert status.OK()
status = connect.flush([collection])
assert status.OK()
status, info = connect.get_collection_stats(collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][0]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_without_index_B(self, connect, collection):
'''
target: get vector ids when there is no index but with partition
method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors
expected: status ok
'''
status = connect.create_partition(collection, tag)
assert status.OK()
vectors = gen_vector(10, dim)
status, ids = connect.insert(collection, vectors, partition_tag=tag)
assert status.OK()
status = connect.flush([collection])
assert status.OK()
status, info = connect.get_collection_stats(collection)
assert status.OK()
assert info["partitions"][1]["tag"] == tag
status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][1]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.fixture(
scope="function",
params=gen_simple_index()
)
def get_simple_index(self, request, connect):
if str(connect._cmd("mode")[1]) == "CPU":
if request.param["index_type"] not in [IndexType.IVF_SQ8, IndexType.IVFLAT, IndexType.FLAT]:
pytest.skip("Only support index_type: flat/ivf_flat/ivf_sq8")
else:
pytest.skip("Only support CPU mode")
return request.param
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_with_index_A(self, connect, collection, get_simple_index):
'''
target: get vector ids when there is index
method: call list_id_in_segment and check if the segment contains vectors
expected: status ok
'''
index_param = get_simple_index["index_param"]
index_type = get_simple_index["index_type"]
status = connect.create_index(collection, index_type, index_param)
assert status.OK()
vectors = gen_vector(10, dim)
status, ids = connect.insert(collection, vectors)
assert status.OK()
status = connect.flush([collection])
assert status.OK()
status, info = connect.get_collection_stats(collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][0]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_with_index_B(self, connect, collection, get_simple_index):
'''
target: get vector ids when there is index and with partition
method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors
expected: status ok
'''
status = connect.create_partition(collection, tag)
assert status.OK()
index_param = get_simple_index["index_param"]
index_type = get_simple_index["index_type"]
status = connect.create_index(collection, index_type, index_param)
assert status.OK()
vectors = gen_vector(10, dim)
status, ids = connect.insert(collection, vectors, partition_tag=tag)
assert status.OK()
status = connect.flush([collection])
assert status.OK()
status, info = connect.get_collection_stats(collection)
assert status.OK()
assert info["partitions"][1]["tag"] == tag
status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][1]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_after_delete_vectors(self, connect, collection):
'''
target: get vector ids after vectors are deleted
method: add vectors and delete a few, call list_id_in_segment
expected: status ok, vector_ids decreased after vectors deleted
'''
vectors = gen_vector(2, dim)
status, ids = connect.insert(collection, vectors)
assert status.OK()
delete_ids = [ids[0]]
status = connect.delete_entity_by_id(collection, delete_ids)
status = connect.flush([collection])
assert status.OK()
status, info = connect.get_collection_stats(collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(collection, info["partitions"][0]["segments"][0]["name"])
assert len(vector_ids) == 1
assert vector_ids[0] == ids[1]
class TestGetVectorIdsIP:
"""
******************************************************************
The following cases are used to test `list_id_in_segment` function
******************************************************************
"""
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_without_index_A(self, connect, ip_collection):
'''
target: get vector ids when there is no index
method: call list_id_in_segment and check if the segment contains vectors
expected: status ok
'''
vectors = gen_vector(10, dim)
status, ids = connect.insert(ip_collection, vectors)
assert status.OK()
status = connect.flush([ip_collection])
assert status.OK()
status, info = connect.get_collection_stats(ip_collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][0]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_without_index_B(self, connect, ip_collection):
'''
target: get vector ids when there is no index but with partition
method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors
expected: status ok
'''
status = connect.create_partition(ip_collection, tag)
assert status.OK()
vectors = gen_vector(10, dim)
status, ids = connect.insert(ip_collection, vectors, partition_tag=tag)
assert status.OK()
status = connect.flush([ip_collection])
assert status.OK()
status, info = connect.get_collection_stats(ip_collection)
assert status.OK()
assert info["partitions"][1]["tag"] == tag
status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][1]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.fixture(
scope="function",
params=gen_simple_index()
)
def get_simple_index(self, request, connect):
if str(connect._cmd("mode")[1]) == "CPU":
if request.param["index_type"] not in [IndexType.IVF_SQ8, IndexType.IVFLAT, IndexType.FLAT]:
pytest.skip("Only support index_type: flat/ivf_flat/ivf_sq8")
else:
pytest.skip("Only support CPU mode")
return request.param
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_with_index_A(self, connect, ip_collection, get_simple_index):
'''
target: get vector ids when there is index
method: call list_id_in_segment and check if the segment contains vectors
expected: status ok
'''
index_param = get_simple_index["index_param"]
index_type = get_simple_index["index_type"]
status = connect.create_index(ip_collection, index_type, index_param)
assert status.OK()
vectors = gen_vector(10, dim)
status, ids = connect.insert(ip_collection, vectors)
assert status.OK()
status = connect.flush([ip_collection])
assert status.OK()
status, info = connect.get_collection_stats(ip_collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][0]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_with_index_B(self, connect, ip_collection, get_simple_index):
'''
target: get vector ids when there is index and with partition
method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors
expected: status ok
'''
status = connect.create_partition(ip_collection, tag)
assert status.OK()
index_param = get_simple_index["index_param"]
index_type = get_simple_index["index_type"]
status = connect.create_index(ip_collection, index_type, index_param)
assert status.OK()
vectors = gen_vector(10, dim)
status, ids = connect.insert(ip_collection, vectors, partition_tag=tag)
assert status.OK()
status = connect.flush([ip_collection])
assert status.OK()
status, info = connect.get_collection_stats(ip_collection)
assert status.OK()
assert info["partitions"][1]["tag"] == tag
status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][1]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_after_delete_vectors(self, connect, ip_collection):
'''
target: get vector ids after vectors are deleted
method: add vectors and delete a few, call list_id_in_segment
expected: status ok, vector_ids decreased after vectors deleted
'''
vectors = gen_vector(2, dim)
status, ids = connect.insert(ip_collection, vectors)
assert status.OK()
delete_ids = [ids[0]]
status = connect.delete_entity_by_id(ip_collection, delete_ids)
status = connect.flush([ip_collection])
assert status.OK()
status, info = connect.get_collection_stats(ip_collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(ip_collection, info["partitions"][0]["segments"][0]["name"])
assert len(vector_ids) == 1
assert vector_ids[0] == ids[1]
class TestGetVectorIdsJAC:
"""
******************************************************************
The following cases are used to test `list_id_in_segment` function
******************************************************************
"""
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_without_index_A(self, connect, jac_collection):
'''
target: get vector ids when there is no index
method: call list_id_in_segment and check if the segment contains vectors
expected: status ok
'''
tmp, vectors = gen_binary_vectors(10, dim)
status, ids = connect.insert(jac_collection, vectors)
assert status.OK()
status = connect.flush([jac_collection])
assert status.OK()
status, info = connect.get_collection_stats(jac_collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][0]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_without_index_B(self, connect, jac_collection):
'''
target: get vector ids when there is no index but with partition
method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors
expected: status ok
'''
status = connect.create_partition(jac_collection, tag)
assert status.OK()
tmp, vectors = gen_binary_vectors(10, dim)
status, ids = connect.insert(jac_collection, vectors, partition_tag=tag)
assert status.OK()
status = connect.flush([jac_collection])
assert status.OK()
status, info = connect.get_collection_stats(jac_collection)
assert status.OK()
assert info["partitions"][1]["tag"] == tag
status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][1]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.fixture(
scope="function",
params=gen_simple_index()
)
def get_jaccard_index(self, request, connect):
logging.getLogger().info(request.param)
if request.param["index_type"] == IndexType.IVFLAT or request.param["index_type"] == IndexType.FLAT:
return request.param
else:
pytest.skip("Skip index Temporary")
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_with_index_A(self, connect, jac_collection, get_jaccard_index):
'''
target: get vector ids when there is index
method: call list_id_in_segment and check if the segment contains vectors
expected: status ok
'''
index_param = get_jaccard_index["index_param"]
index_type = get_jaccard_index["index_type"]
status = connect.create_index(jac_collection, index_type, index_param)
assert status.OK()
tmp, vectors = gen_binary_vectors(10, dim)
status, ids = connect.insert(jac_collection, vectors)
assert status.OK()
status = connect.flush([jac_collection])
assert status.OK()
status, info = connect.get_collection_stats(jac_collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][0]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_with_index_B(self, connect, jac_collection, get_jaccard_index):
'''
target: get vector ids when there is index and with partition
method: create partition, add vectors to it and call list_id_in_segment, check if the segment contains vectors
expected: status ok
'''
status = connect.create_partition(jac_collection, tag)
assert status.OK()
index_param = get_jaccard_index["index_param"]
index_type = get_jaccard_index["index_type"]
status = connect.create_index(jac_collection, index_type, index_param)
assert status.OK()
tmp, vectors = gen_binary_vectors(10, dim)
status, ids = connect.insert(jac_collection, vectors, partition_tag=tag)
assert status.OK()
status = connect.flush([jac_collection])
assert status.OK()
status, info = connect.get_collection_stats(jac_collection)
assert status.OK()
assert info["partitions"][1]["tag"] == tag
status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][1]["segments"][0]["name"])
# vector_ids should match ids
assert len(vector_ids) == 10
for i in range(10):
assert vector_ids[i] == ids[i]
@pytest.mark.timeout(GET_TIMEOUT)
def test_list_id_in_segment_after_delete_vectors(self, connect, jac_collection):
'''
target: get vector ids after vectors are deleted
method: add vectors and delete a few, call list_id_in_segment
expected: status ok, vector_ids decreased after vectors deleted
'''
tmp, vectors = gen_binary_vectors(2, dim)
status, ids = connect.insert(jac_collection, vectors)
assert status.OK()
delete_ids = [ids[0]]
status = connect.delete_entity_by_id(jac_collection, delete_ids)
status = connect.flush([jac_collection])
assert status.OK()
status, info = connect.get_collection_stats(jac_collection)
assert status.OK()
status, vector_ids = connect.list_id_in_segment(jac_collection, info["partitions"][0]["segments"][0]["name"])
assert len(vector_ids) == 1
assert vector_ids[0] == ids[1]
| 43.265594 | 118 | 0.646793 | 2,721 | 21,503 | 4.875046 | 0.055862 | 0.058349 | 0.037995 | 0.07124 | 0.944365 | 0.927704 | 0.91406 | 0.909084 | 0.905767 | 0.898379 | 0 | 0.00955 | 0.240339 | 21,503 | 496 | 119 | 43.352823 | 0.80251 | 0.185276 | 0 | 0.810651 | 0 | 0 | 0.051474 | 0.003889 | 0 | 0 | 0 | 0 | 0.292899 | 1 | 0.073965 | false | 0 | 0.026627 | 0 | 0.121302 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
10c95a290b485d157519aec1a41d8c54e5723eeb | 9,472 | py | Python | tests/elections/test_election.py | eckelj/planetmint | c7086a1982d781cb7ace62f1dff5cd63ed016ae0 | [
"Apache-2.0"
] | null | null | null | tests/elections/test_election.py | eckelj/planetmint | c7086a1982d781cb7ace62f1dff5cd63ed016ae0 | [
"Apache-2.0"
] | null | null | null | tests/elections/test_election.py | eckelj/planetmint | c7086a1982d781cb7ace62f1dff5cd63ed016ae0 | [
"Apache-2.0"
] | null | null | null | import pytest
from tests.utils import generate_election, generate_validators
from planetmint.lib import Block
from planetmint.elections.election import Election
from planetmint.migrations.chain_migration_election import ChainMigrationElection
from planetmint.upsert_validator.validator_election import ValidatorElection
@pytest.mark.bdb
def test_process_block_concludes_all_elections(b):
validators = generate_validators([1] * 4)
b.store_validator_set(1, [v['storage'] for v in validators])
new_validator = generate_validators([1])[0]
public_key = validators[0]['public_key']
private_key = validators[0]['private_key']
voter_keys = [v['private_key'] for v in validators]
election, votes = generate_election(b,
ChainMigrationElection,
public_key, private_key,
{},
voter_keys)
txs = [election]
total_votes = votes
election, votes = generate_election(b,
ValidatorElection,
public_key, private_key,
new_validator['election'],
voter_keys)
txs += [election]
total_votes += votes
b.store_abci_chain(1, 'chain-X')
Election.process_block(b, 1, txs)
b.store_block(Block(height=1,
transactions=[tx.id for tx in txs],
app_hash='')._asdict())
b.store_bulk_transactions(txs)
Election.process_block(b, 2, total_votes)
validators = b.get_validators()
assert len(validators) == 5
assert new_validator['storage'] in validators
chain = b.get_latest_abci_chain()
assert chain
assert chain == {
'height': 2,
'is_synced': False,
'chain_id': 'chain-X-migrated-at-height-1',
}
for tx in txs:
assert b.get_election(tx.id)['is_concluded']
@pytest.mark.bdb
def test_process_block_approves_only_one_validator_update(b):
validators = generate_validators([1] * 4)
b.store_validator_set(1, [v['storage'] for v in validators])
new_validator = generate_validators([1])[0]
public_key = validators[0]['public_key']
private_key = validators[0]['private_key']
voter_keys = [v['private_key'] for v in validators]
election, votes = generate_election(b,
ValidatorElection,
public_key, private_key,
new_validator['election'],
voter_keys)
txs = [election]
total_votes = votes
another_validator = generate_validators([1])[0]
election, votes = generate_election(b,
ValidatorElection,
public_key, private_key,
another_validator['election'],
voter_keys)
txs += [election]
total_votes += votes
Election.process_block(b, 1, txs)
b.store_block(Block(height=1,
transactions=[tx.id for tx in txs],
app_hash='')._asdict())
b.store_bulk_transactions(txs)
Election.process_block(b, 2, total_votes)
validators = b.get_validators()
assert len(validators) == 5
assert new_validator['storage'] in validators
assert another_validator['storage'] not in validators
assert b.get_election(txs[0].id)['is_concluded']
assert not b.get_election(txs[1].id)['is_concluded']
@pytest.mark.bdb
def test_process_block_approves_after_pending_validator_update(b):
validators = generate_validators([1] * 4)
b.store_validator_set(1, [v['storage'] for v in validators])
new_validator = generate_validators([1])[0]
public_key = validators[0]['public_key']
private_key = validators[0]['private_key']
voter_keys = [v['private_key'] for v in validators]
election, votes = generate_election(b,
ValidatorElection,
public_key, private_key,
new_validator['election'],
voter_keys)
txs = [election]
total_votes = votes
another_validator = generate_validators([1])[0]
election, votes = generate_election(b,
ValidatorElection,
public_key, private_key,
another_validator['election'],
voter_keys)
txs += [election]
total_votes += votes
election, votes = generate_election(b,
ChainMigrationElection,
public_key, private_key,
{},
voter_keys)
txs += [election]
total_votes += votes
b.store_abci_chain(1, 'chain-X')
Election.process_block(b, 1, txs)
b.store_block(Block(height=1,
transactions=[tx.id for tx in txs],
app_hash='')._asdict())
b.store_bulk_transactions(txs)
Election.process_block(b, 2, total_votes)
validators = b.get_validators()
assert len(validators) == 5
assert new_validator['storage'] in validators
assert another_validator['storage'] not in validators
assert b.get_election(txs[0].id)['is_concluded']
assert not b.get_election(txs[1].id)['is_concluded']
assert b.get_election(txs[2].id)['is_concluded']
assert b.get_latest_abci_chain() == {'height': 2,
'chain_id': 'chain-X-migrated-at-height-1',
'is_synced': False}
@pytest.mark.bdb
def test_process_block_does_not_approve_after_validator_update(b):
validators = generate_validators([1] * 4)
b.store_validator_set(1, [v['storage'] for v in validators])
new_validator = generate_validators([1])[0]
public_key = validators[0]['public_key']
private_key = validators[0]['private_key']
voter_keys = [v['private_key'] for v in validators]
election, votes = generate_election(b,
ValidatorElection,
public_key, private_key,
new_validator['election'],
voter_keys)
txs = [election]
total_votes = votes
b.store_block(Block(height=1,
transactions=[tx.id for tx in txs],
app_hash='')._asdict())
Election.process_block(b, 1, txs)
b.store_bulk_transactions(txs)
second_election, second_votes = generate_election(b,
ChainMigrationElection,
public_key, private_key,
{},
voter_keys)
Election.process_block(b, 2, total_votes + [second_election])
b.store_block(Block(height=2,
transactions=[v.id for v in total_votes + [second_election]],
app_hash='')._asdict())
b.store_abci_chain(1, 'chain-X')
Election.process_block(b, 3, second_votes)
assert not b.get_election(second_election.id)['is_concluded']
assert b.get_latest_abci_chain() == {'height': 1,
'chain_id': 'chain-X',
'is_synced': True}
@pytest.mark.bdb
def test_process_block_applies_only_one_migration(b):
validators = generate_validators([1] * 4)
b.store_validator_set(1, [v['storage'] for v in validators])
public_key = validators[0]['public_key']
private_key = validators[0]['private_key']
voter_keys = [v['private_key'] for v in validators]
election, votes = generate_election(b,
ChainMigrationElection,
public_key, private_key,
{},
voter_keys)
txs = [election]
total_votes = votes
election, votes = generate_election(b,
ChainMigrationElection,
public_key, private_key,
{},
voter_keys)
txs += [election]
total_votes += votes
b.store_abci_chain(1, 'chain-X')
Election.process_block(b, 1, txs)
b.store_block(Block(height=1,
transactions=[tx.id for tx in txs],
app_hash='')._asdict())
b.store_bulk_transactions(txs)
Election.process_block(b, 1, total_votes)
chain = b.get_latest_abci_chain()
assert chain
assert chain == {
'height': 2,
'is_synced': False,
'chain_id': 'chain-X-migrated-at-height-1',
}
assert b.get_election(txs[0].id)['is_concluded']
assert not b.get_election(txs[1].id)['is_concluded']
def test_process_block_gracefully_handles_empty_block(b):
Election.process_block(b, 1, [])
| 35.743396 | 85 | 0.544552 | 987 | 9,472 | 4.954407 | 0.085106 | 0.05317 | 0.052352 | 0.062168 | 0.87771 | 0.855419 | 0.853374 | 0.827198 | 0.814724 | 0.814724 | 0 | 0.012541 | 0.36022 | 9,472 | 264 | 86 | 35.878788 | 0.794389 | 0 | 0 | 0.852217 | 1 | 0 | 0.063028 | 0.008868 | 0 | 0 | 0 | 0 | 0.1133 | 1 | 0.029557 | false | 0 | 0.029557 | 0 | 0.059113 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
10f865cb38dbbb792638f1a5d58029e76c88d47a | 10,899 | py | Python | run_main_tests.py | bolaabcd/Polarization2 | 19d2287f3f73a58a20b96108a069169d75bbd820 | [
"MIT"
] | null | null | null | run_main_tests.py | bolaabcd/Polarization2 | 19d2287f3f73a58a20b96108a069169d75bbd820 | [
"MIT"
] | null | null | null | run_main_tests.py | bolaabcd/Polarization2 | 19d2287f3f73a58a20b96108a069169d75bbd820 | [
"MIT"
] | null | null | null | from main_cases import *
from run_base_tests import simulate
from default_beliefs import build_belief
FUNCTION = belief_update_fs.quadratic_update
# society type -> parameter -> range
all_sims = (
(
scientists_buffer,
"scientists_buffer_comun_dont_see_truth",
[
10,# num_scientists : int,
3,# num_comunicators : int, # extra scientists
20,# num_others : int,
1,# inf_truth_scientists : np.float64,
0.5,# inf_scientists_scientists : np.float64,
0.2,# inf_scientists_others : np.float64,
0.0,# inf_others_scientists : np.float64,
0.3,# inf_others_others : np.float64,
FUNCTION,# upf_truth_scientists : FunctionType,
FUNCTION,# upf_scientists_scientists : FunctionType,
FUNCTION,# upf_scientists_others : FunctionType,
FUNCTION,# upf_others_scientists : FunctionType,
FUNCTION,# upf_others_others : FunctionType,
1,# tol_truth_scientists : np.float64,
1,# tol_scientists_scientists : np.float64,
1,# tol_scientists_others : np.float64,
1,# tol_others_scientists : np.float64,
1,# tol_others_others : np.float64,
(build_belief, (3/5,1)),# bel_scientists_distr : np.float64,
(build_belief, (0,1/4)),# bel_others_distr : np.float64,
1,# bel_truth : np.float64 = 1.0,
False,# comunicators_see_truth : bool = False,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
[
(1,15),# num_scientists : int,
(1,15),# num_comunicators : int, # extra scientists
(1,30),# num_others : int,
(0,1),# inf_truth_scientists : np.float64,
(0,1),# inf_scientists_scientists : np.float64,
(0,1),# inf_scientists_others : np.float64,
(0,1),# inf_others_scientists : np.float64,
(0,1),# inf_others_others : np.float64,
None,# upf_truth_scientists : FunctionType,
None,# upf_scientists_scientists : FunctionType,
None,# upf_scientists_others : FunctionType,
None,# upf_others_scientists : FunctionType,
None,# upf_others_others : FunctionType,
(-1,1),# tol_truth_scientists : np.float64,
(-1,1),# tol_scientists_scientists : np.float64,
(-1,1),# tol_scientists_others : np.float64,
(-1,1),# tol_others_scientists : np.float64,
(-1,1),# tol_others_others : np.float64,
None,# bel_scientists_distr : np.float64,
None,# bel_others_distr : np.float64,
None,# bel_truth : np.float64 = 1.0,
None,# comunicators_see_truth : bool = False,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
[
"num_scientists",# : int,
"num_comunicators",# : int, # extra scientists
"num_others",# : int,
"inf_truth_scientists",# : np.float64,
"inf_scientists_scientists",# : np.float64,
"inf_scientists_others",# : np.float64,
"inf_others_scientists",# : np.float64,
"inf_others_others",# : np.float64,
"upf_truth_scientists",# : FunctionType,
"upf_scientists_scientists",# : FunctionType,
"upf_scientists_others",# : FunctionType,
"upf_others_scientists",# : FunctionType,
"upf_others_others",# : FunctionType,
"tol_truth_scientists",# : np.float64,
"tol_scientists_scientists",# : np.float64,
"tol_scientists_others",# : np.float64,
"tol_others_scientists",# : np.float64,
"tol_others_others",# : np.float64,
"bel_scientists_distr",# : np.float64,
"bel_others_distr",# : np.float64,
"bel_truth",# : np.float64 = 1.0,
"comunicators_see_truth",# : bool = False,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
),
(
scientists_buffer,
"scientists_buffer_comun_see_truth",
[
10,# num_scientists : int,
3,# num_comunicators : int, # extra scientists
20,# num_others : int,
1,# inf_truth_scientists : np.float64,
0.5,# inf_scientists_scientists : np.float64,
0.2,# inf_scientists_others : np.float64,
0.0,# inf_others_scientists : np.float64,
0.3,# inf_others_others : np.float64,
FUNCTION,# upf_truth_scientists : FunctionType,
FUNCTION,# upf_scientists_scientists : FunctionType,
FUNCTION,# upf_scientists_others : FunctionType,
FUNCTION,# upf_others_scientists : FunctionType,
FUNCTION,# upf_others_others : FunctionType,
1,# tol_truth_scientists : np.float64,
1,# tol_scientists_scientists : np.float64,
1,# tol_scientists_others : np.float64,
1,# tol_others_scientists : np.float64,
1,# tol_others_others : np.float64,
(build_belief, (3/5,1)),# bel_scientists_distr : np.float64,
(build_belief, (0,1/4)),# bel_others_distr : np.float64,
1,# bel_truth : np.float64 = 1.0,
True,# comunicators_see_truth : bool = False,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
[
(1,15),# num_scientists : int,
(1,15),# num_comunicators : int, # extra scientists
(1,30),# num_others : int,
(0,1),# inf_truth_scientists : np.float64,
(0,1),# inf_scientists_scientists : np.float64,
(0,1),# inf_scientists_others : np.float64,
(0,1),# inf_others_scientists : np.float64,
(0,1),# inf_others_others : np.float64,
None,# upf_truth_scientists : FunctionType,
None,# upf_scientists_scientists : FunctionType,
None,# upf_scientists_others : FunctionType,
None,# upf_others_scientists : FunctionType,
None,# upf_others_others : FunctionType,
(-1,1),# tol_truth_scientists : np.float64,
(-1,1),# tol_scientists_scientists : np.float64,
(-1,1),# tol_scientists_others : np.float64,
(-1,1),# tol_others_scientists : np.float64,
(-1,1),# tol_others_others : np.float64,
None,# bel_scientists_distr : np.float64,
None,# bel_others_distr : np.float64,
None,# bel_truth : np.float64 = 1.0,
None,# comunicators_see_truth : bool = False,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
[
"num_scientists",# : int,
"num_comunicators",# : int, # extra scientists
"num_others",# : int,
"inf_truth_scientists",# : np.float64,
"inf_scientists_scientists",# : np.float64,
"inf_scientists_others",# : np.float64,
"inf_others_scientists",# : np.float64,
"inf_others_others",# : np.float64,
"upf_truth_scientists",# : FunctionType,
"upf_scientists_scientists",# : FunctionType,
"upf_scientists_others",# : FunctionType,
"upf_others_scientists",# : FunctionType,
"upf_others_others",# : FunctionType,
"tol_truth_scientists",# : np.float64,
"tol_scientists_scientists",# : np.float64,
"tol_scientists_others",# : np.float64,
"tol_others_scientists",# : np.float64,
"tol_others_others",# : np.float64,
"bel_scientists_distr",# : np.float64,
"bel_others_distr",# : np.float64,
"bel_truth",# : np.float64 = 1.0,
"comunicators_see_truth",# : bool = False,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
),
(
many_sides,
"many_sides",
[
5,# num_sides : int,
[2 for i in range(5)],# num_agents_sides : int,
10,# num_neutral_agents : int,
1,# influence_sides_agent : np.float64,
0.5,# influence_agent_agent : np.float64,
FUNCTION,# update_sides_agent : np.float64,
FUNCTION,# update_agent_agent : np.float64,
1,# tolerance_sides_agent : np.float64,
1,# tolerance_agent_agent : np.float64,
0.1,# side_diff : np.float64,
0.3,# neutral_low : np.float64 = 0,
0.7,# neutral_high : np.float64 = 1,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
[
None,# num_sides : int,
None,# num_agents_sides : int,
(2,100),# num_neutral_agents : int,
(0,1),# influence_sides_agent : np.float64,
(0,1),# influence_agent_agent : np.float64,
None,# update_sides_agent : np.float64,
None,# update_agent_agent : np.float64,
(-1,1),# tolerance_sides_agent : np.float64,
(-1,1),# tolerance_agent_agent : np.float64,
None,# side_diff : np.float64,
None,# neutral_low : np.float64 = 0,
None,# neutral_high : np.float64 = 1,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
[
"num_sides",# : int,
"num_agents_sides",# : int,
"num_neutral_agents",# : int,
"influence_sides_agent",# : np.float64,
"influence_agent_agent",# : np.float64,
"update_sides_agent",# : np.float64,
"update_agent_agent",# : np.float64,
"tolerance_sides_agent",# : np.float64,
"tolerance_agent_agent",# : np.float64,
"side_diff",# : np.float64,
"neutral_low",# : np.float64 = 0,
"neutral_high",# : np.float64 = 1,
# see_constant_agents: bool = True,
# constant_agents_tol: bool = False,
# pol_measure : FunctionType = pol_ER_discretized
],
),
)
simulate(all_sims, nsteps = 500)
| 45.4125 | 72 | 0.571153 | 1,149 | 10,899 | 5.078329 | 0.067885 | 0.161954 | 0.117224 | 0.049357 | 0.924764 | 0.850557 | 0.832048 | 0.811482 | 0.811482 | 0.811482 | 0 | 0.049497 | 0.315992 | 10,899 | 239 | 73 | 45.60251 | 0.733199 | 0.520048 | 0 | 0.795122 | 0 | 0 | 0.221559 | 0.119531 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.014634 | 0 | 0.014634 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
80138b8721fa43132a7f22a258b36f5ba930c4bd | 16,564 | py | Python | tests/tacacs/test_authorization.py | arista-northwest/sonic-mgmt | ef83219cf68b03693aedf22c22a040000a491a64 | [
"Apache-2.0"
] | 1 | 2021-02-22T05:32:02.000Z | 2021-02-22T05:32:02.000Z | tests/tacacs/test_authorization.py | arista-northwest/sonic-mgmt | ef83219cf68b03693aedf22c22a040000a491a64 | [
"Apache-2.0"
] | 1 | 2021-04-29T03:00:53.000Z | 2021-04-29T03:00:53.000Z | tests/tacacs/test_authorization.py | arista-northwest/sonic-mgmt | ef83219cf68b03693aedf22c22a040000a491a64 | [
"Apache-2.0"
] | 1 | 2021-08-20T03:34:30.000Z | 2021-08-20T03:34:30.000Z | import crypt
import paramiko
import pytest
from .test_ro_user import ssh_remote_run
from .utils import stop_tacacs_server, start_tacacs_server, per_command_check_skip_versions, remove_all_tacacs_server
from tests.common.helpers.assertions import pytest_assert
from tests.common.utilities import skip_release
pytestmark = [
pytest.mark.disable_loganalyzer,
pytest.mark.topology('any'),
pytest.mark.device_type('vs')
]
logger = logging.getLogger(__name__)
TIMEOUT_LIMIT = 120
def ssh_connect_remote(remote_ip, remote_username, remote_password):
ssh = paramiko.SSHClient()
ssh.set_missing_host_key_policy(paramiko.AutoAddPolicy())
ssh.connect(remote_ip, username=remote_username, password=remote_password, allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT)
return ssh
def check_ssh_connect_remote_failed(remote_ip, remote_username, remote_password):
login_failed = False
try:
ssh_client_local = ssh_connect_remote(remote_ip, remote_username, remote_password)
except paramiko.ssh_exception.AuthenticationException as e:
login_failed = True
pytest_assert(login_failed == True)
def ssh_run_command(ssh_client, command):
stdin, stdout, stderr = ssh_client.exec_command(command, timeout=TIMEOUT_LIMIT)
exit_code = stdout.channel.recv_exit_status()
stdout_lines = stdout.readlines()
stderr_lines = stderr.readlines()
return exit_code, stdout_lines, stderr_lines
def check_ssh_output(res, exp_val):
content_exist = False
for l in res:
if exp_val in l:
content_exist = True
break
pytest_assert(content_exist)
@pytest.fixture
def remote_user_client(duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
with ssh_connect_remote(dutip, creds_all_duts[duthost]['tacacs_authorization_user'], creds_all_duts[duthost]['tacacs_authorization_user_passwd']) as ssh_client:
yield ssh_client
@pytest.fixture
def local_user_client(duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
with paramiko.SSHClient() as ssh_client:
ssh_client.set_missing_host_key_policy(paramiko.AutoAddPolicy())
yield ssh_client
@pytest.fixture(scope="module", autouse=True)
def check_image_version(duthost):
"""Skips this test if the SONiC image installed on DUT is older than 202112
Args:
duthost: Hostname of DUT.
Returns:
None.
"""
skip_release(duthost, per_command_check_skip_versions)
def test_authorization_tacacs_only(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts, check_tacacs, remote_user_client):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
duthost.shell("sudo config aaa authorization tacacs+")
"""
Verify TACACS+ user run command in server side whitelist:
If command have local permission, user can run command.
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
"""
Verify TACACS+ user run command in server side whitelist:
If command not have local permission, user can't run command.
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config aaa")
pytest_assert(exit_code == 1)
check_ssh_output(stderr, 'Root privileges are required for this operation')
# Verify TACACS+ user can't run command not in server side whitelist.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "cat /etc/passwd")
pytest_assert(exit_code == 1)
check_ssh_output(stdout, '/usr/bin/cat authorize failed by TACACS+ with given arguments, not executing')
# Verify Local user can't login.
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
check_ssh_connect_remote_failed(dutip, creds_all_duts[duthost]['local_user'],
creds_all_duts[duthost]['local_user_passwd'])
def test_authorization_tacacs_only_some_server_down(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client):
"""
Setup multiple tacacs server for this UT.
Tacacs server 127.0.0.1 not accessible.
"""
invalid_tacacs_server_ip = "127.0.0.1"
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
tacacs_server_ip = ptfhost.host.options['inventory_manager'].get_host(ptfhost.hostname).vars['ansible_host']
config_facts = duthost.config_facts(host=duthost.hostname, source="running")['ansible_facts']
duthost.shell("sudo config tacacs timeout 1")
# cleanup all tacacs server, if UT break, tacacs server may still left in dut and will break next UT.
remove_all_tacacs_server(duthost)
duthost.shell("sudo config tacacs add %s" % invalid_tacacs_server_ip)
duthost.shell("sudo config tacacs add %s" % tacacs_server_ip)
"""
Verify TACACS+ user run command in server side whitelist:
If command have local permission, user can run command.
If command not have local permission, user can't run command.
Verify TACACS+ user can't run command not in server side whitelist.
Verify Local user can't login.
"""
test_authorization_tacacs_only(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts, check_tacacs, remote_user_client)
# Cleanup
duthost.shell("sudo config tacacs delete %s" % invalid_tacacs_server_ip)
def test_authorization_tacacs_only_then_server_down_after_login(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
duthost.shell("sudo config aaa authorization tacacs+")
# Verify when server are accessible, TACACS+ user can run command in server side whitelist.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
# Shutdown tacacs server
stop_tacacs_server(ptfhost)
# Verify when server are not accessible, TACACS+ user can't run any command.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa")
pytest_assert(exit_code == 1)
check_ssh_output(stdout, '/usr/local/bin/show not authorized by TACACS+ with given arguments, not executing')
# Cleanup UT.
start_tacacs_server(ptfhost)
def test_authorization_tacacs_and_local(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
duthost.shell("sudo config aaa authorization \"tacacs+ local\"")
"""
Verify TACACS+ user run command in server side whitelist:
If command have local permission, user can run command.
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
"""
Verify TACACS+ user run command in server side whitelist:
If command not have local permission, user can't run command.
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config aaa")
pytest_assert(exit_code == 1)
check_ssh_output(stderr, 'Root privileges are required for this operation')
# Verify TACACS+ user can run command not in server side whitelist, but have local permission.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "cat /etc/passwd")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'root:x:0:0:root:/root:/bin/bash')
# Verify Local user can't login.
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
check_ssh_connect_remote_failed(dutip, creds_all_duts[duthost]['local_user'],
creds_all_duts[duthost]['local_user_passwd'])
def test_authorization_tacacs_and_local_then_server_down_after_login(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client, local_user_client):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
duthost.shell("sudo config aaa authorization \"tacacs+ local\"")
# Shutdown tacacs server
stop_tacacs_server(ptfhost)
# Verify TACACS+ user can run command not in server side whitelist but have permission in local.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "cat /etc/passwd")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'root:x:0:0:root:/root:/bin/bash')
# Verify TACACS+ user can't run command in server side whitelist also not have permission in local.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config tacacs")
pytest_assert(exit_code == 1)
check_ssh_output(stdout, '/usr/local/bin/config not authorized by TACACS+ with given arguments, not executing')
check_ssh_output(stderr, 'Root privileges are required for this operation')
# Verify Local user can login when tacacs closed, and run command with local permission.
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
local_user_client.connect(dutip, username=creds_all_duts[duthost]['local_user'],
password=creds_all_duts[duthost]['local_user_passwd'],
allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT)
exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
# Start tacacs server
start_tacacs_server(ptfhost)
# Verify after Local user login, then server becomes accessible, Local user still can run command with local permission.
exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
def test_authorization_local(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client, local_user_client):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
duthost.shell("sudo config aaa authorization local")
"""
TACACS server up:
Verify TACACS+ user can run command if have permission in local.
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
"""
TACACS server up:
Verify TACACS+ user can't run command if not have permission in local.
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "config aaa")
pytest_assert(exit_code == 1)
check_ssh_output(stderr, 'Root privileges are required for this operation')
# Shutdown tacacs server.
stop_tacacs_server(ptfhost)
"""
TACACS server down:
Verify Local user can login, and run command with local permission.
"""
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
local_user_client.connect(dutip, username=creds_all_duts[duthost]['local_user'],
password=creds_all_duts[duthost]['local_user_passwd'],
allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT)
exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
# Cleanup
start_tacacs_server(ptfhost)
def test_bypass_authorization(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
duthost.shell("sudo config aaa authorization tacacs+")
"""
Verify user can't run script with sh/python with following command.
python ./testscript.py
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, 'echo "" >> ./testscript.py')
pytest_assert(exit_code == 0)
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "python ./testscript.py")
pytest_assert(exit_code == 1)
check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing')
# Verify user can't run 'find' command with '-exec' parameter.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "find . -type f -exec /bin/sh ;")
pytest_assert(exit_code == 1)
check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing')
# Verify user can run 'find' command without '-exec' parameter.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "find . /bin/sh")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, '/bin/sh')
"""
Verify user can't run command with loader:
/lib/x86_64-linux-gnu/ld-linux-x86-64.so.2 sh
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "/lib/x86_64-linux-gnu/ld-linux-x86-64.so.2 sh")
pytest_assert(exit_code == 1)
check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing')
"""
Verify user can't run command with prefix/quoting:
\sh
"sh"
echo $(sh -c ls)
"""
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "\\sh")
pytest_assert(exit_code == 1)
check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing')
exit_code, stdout, stderr = ssh_run_command(remote_user_client, '"sh"')
pytest_assert(exit_code == 1)
check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing')
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "echo $(sh -c ls)")
# echo command will run success and return 0, but sh command will be blocked.
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'authorize failed by TACACS+ with given arguments, not executing')
def test_backward_compatibility_disable_authorization(localhost, duthosts, enum_rand_one_per_hwsku_hostname, creds_all_duts,ptfhost, check_tacacs, remote_user_client, local_user_client):
duthost = duthosts[enum_rand_one_per_hwsku_hostname]
duthost.shell("sudo config aaa authorization local")
# Verify domain account can run command if have permission in local.
exit_code, stdout, stderr = ssh_run_command(remote_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
# Shutdown tacacs server
stop_tacacs_server(ptfhost)
# Verify domain account can't login to device successfully.
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
check_ssh_connect_remote_failed(dutip, creds_all_duts[duthost]['tacacs_authorization_user'],
creds_all_duts[duthost]['tacacs_authorization_user_passwd'])
# Verify local admin account can run command if have permission in local.
dutip = duthost.host.options['inventory_manager'].get_host(duthost.hostname).vars['ansible_host']
local_user_client.connect(dutip, username=creds_all_duts[duthost]['local_user'],
password=creds_all_duts[duthost]['local_user_passwd'],
allow_agent=False, look_for_keys=False, auth_timeout=TIMEOUT_LIMIT)
exit_code, stdout, stderr = ssh_run_command(local_user_client, "show aaa")
pytest_assert(exit_code == 0)
check_ssh_output(stdout, 'AAA authentication')
# Verify local admin account can't run command if not have permission in local.
exit_code, stdout, stderr = ssh_run_command(local_user_client, "config aaa")
pytest_assert(exit_code == 1)
check_ssh_output(stderr, 'Root privileges are required for this operation')
# cleanup
start_tacacs_server(ptfhost) | 47.872832 | 201 | 0.735692 | 2,264 | 16,564 | 5.07818 | 0.106007 | 0.046969 | 0.043142 | 0.045229 | 0.826737 | 0.783596 | 0.757328 | 0.729669 | 0.722275 | 0.692007 | 0 | 0.005213 | 0.177674 | 16,564 | 346 | 202 | 47.872832 | 0.838852 | 0.1039 | 0 | 0.587629 | 0 | 0.005155 | 0.177103 | 0.018229 | 0 | 0 | 0 | 0 | 0.149485 | 1 | 0.07732 | false | 0.07732 | 0.036082 | 0 | 0.123711 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 7 |
8022a2e602a85b1bb45c1e025651d4d1f6a0b1aa | 10,734 | py | Python | tests/actions/test_sync_ldap_groups.py | WIPACrepo/keycloak-rest-services | 2661b0db2dd320bdb8eefc62c805188bec52ecc7 | [
"MIT"
] | 1 | 2021-09-23T14:39:36.000Z | 2021-09-23T14:39:36.000Z | tests/actions/test_sync_ldap_groups.py | WIPACrepo/keycloak-rest-services | 2661b0db2dd320bdb8eefc62c805188bec52ecc7 | [
"MIT"
] | 38 | 2020-08-31T22:53:09.000Z | 2022-03-28T20:55:39.000Z | tests/actions/test_sync_ldap_groups.py | WIPACrepo/keycloak-rest-services | 2661b0db2dd320bdb8eefc62c805188bec52ecc7 | [
"MIT"
] | null | null | null | import pytest
import asyncio
import logging
#from krs.token import get_token
from krs import users, groups, bootstrap, rabbitmq
from actions import create_posix_account, sync_ldap_groups
from ..util import keycloak_bootstrap, ldap_bootstrap, rabbitmq_bootstrap
def test_flatten_group_name():
assert sync_ldap_groups.flatten_group_name('foo') == 'foo'
assert sync_ldap_groups.flatten_group_name('foo/bar') == 'foo-bar'
assert sync_ldap_groups.flatten_group_name('foo bar/baz') == 'foobar-baz'
def test_get_ldap_members_empty():
assert sync_ldap_groups.get_ldap_members({}) == []
def test_get_ldap_members_uids_single():
group = {'memberUid': 'foo'}
assert sync_ldap_groups.get_ldap_members(group) == ['foo']
def test_get_ldap_members_single():
group = {'member': ['cn=foo,ou=test,ou=com']}
assert sync_ldap_groups.get_ldap_members(group) == ['foo']
def test_get_ldap_members_single_placeholder():
group = {'member': ['cn=empty-membership-placeholder','cn=foo,ou=test,ou=com']}
assert sync_ldap_groups.get_ldap_members(group) == ['foo']
def test_get_ldap_members_placeholder():
group = {'member': ['cn=empty-membership-placeholder']}
assert sync_ldap_groups.get_ldap_members(group) == []
@pytest.mark.asyncio
async def test_sync_posix_single_new(keycloak_bootstrap, ldap_bootstrap):
await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token())
await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap)
await groups.create_group('/posix', rest_client=keycloak_bootstrap)
await groups.create_group('/posix/test', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap)
await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
await groups.add_user_group('/posix/test', 'testuser', rest_client=keycloak_bootstrap)
await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ret = ldap_bootstrap.get_group('test')
print(ret)
assert 'gidNumber' in ret
assert 'memberUid' in ret
assert ret['memberUid'] == 'testuser'
@pytest.mark.asyncio
async def test_sync_posix_many_new(keycloak_bootstrap, ldap_bootstrap):
await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token())
await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap)
await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap)
await groups.create_group('/posix', rest_client=keycloak_bootstrap)
await groups.create_group('/posix/test', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap)
await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
await groups.add_user_group('/posix/test', 'testuser', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix/test', 'testuser2', rest_client=keycloak_bootstrap)
await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ret = ldap_bootstrap.get_group('test')
print(ret)
assert 'gidNumber' in ret
assert 'memberUid' in ret
assert set(ret['memberUid']) == set(['testuser', 'testuser2'])
@pytest.mark.asyncio
async def test_sync_posix_single_remove(keycloak_bootstrap, ldap_bootstrap):
await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token())
await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap)
await groups.create_group('/posix', rest_client=keycloak_bootstrap)
await groups.create_group('/posix/test', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap)
await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ldap_bootstrap.create_group('test', gidNumber=2000)
ldap_bootstrap.add_user_group('testuser', 'test')
ret = ldap_bootstrap.get_group('test')
assert 'gidNumber' in ret
assert 'memberUid' in ret
assert ret['memberUid'] == 'testuser'
await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ret = ldap_bootstrap.get_group('test')
print(ret)
assert 'memberUid' not in ret
@pytest.mark.asyncio
async def test_sync_posix_many_new_remove(keycloak_bootstrap, ldap_bootstrap):
await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token())
await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap)
await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap)
await groups.create_group('/posix', rest_client=keycloak_bootstrap)
await groups.create_group('/posix/test', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap)
await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ldap_bootstrap.create_group('test', gidNumber=2000)
ldap_bootstrap.add_user_group('testuser', 'test')
ret = ldap_bootstrap.get_group('test')
assert 'gidNumber' in ret
assert 'memberUid' in ret
assert ret['memberUid'] == 'testuser'
await groups.add_user_group('/posix/test', 'testuser2', rest_client=keycloak_bootstrap)
await sync_ldap_groups.process('/posix', posix=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ret = ldap_bootstrap.get_group('test')
print(ret)
assert ret['memberUid'] == 'testuser2'
@pytest.mark.asyncio
async def test_sync_group_single_new(keycloak_bootstrap, ldap_bootstrap):
await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token())
await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap)
await groups.create_group('/posix', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap)
await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
await groups.create_group('/groups', rest_client=keycloak_bootstrap)
await groups.create_group('/groups/test', rest_client=keycloak_bootstrap)
await groups.add_user_group('/groups/test', 'testuser', rest_client=keycloak_bootstrap)
await sync_ldap_groups.process('/groups', posix=False, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ret = ldap_bootstrap.get_group('test')
print(ret)
assert 'gidNumber' not in ret
assert 'member' in ret
assert 'uid=testuser,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member']
@pytest.mark.asyncio
async def test_sync_group_many_new(keycloak_bootstrap, ldap_bootstrap):
await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token())
await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap)
await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap)
await groups.create_group('/posix', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap)
await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
await groups.create_group('/groups', rest_client=keycloak_bootstrap)
await groups.create_group('/groups/test', rest_client=keycloak_bootstrap)
await groups.create_group('/groups/test/foo', rest_client=keycloak_bootstrap)
await groups.add_user_group('/groups/test', 'testuser', rest_client=keycloak_bootstrap)
await groups.add_user_group('/groups/test', 'testuser2', rest_client=keycloak_bootstrap)
await sync_ldap_groups.process('/groups', posix=False, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ret = ldap_bootstrap.get_group('test')
print(ret)
assert 'gidNumber' not in ret
assert 'member' in ret
assert 'uid=testuser,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member']
assert 'uid=testuser2,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member']
with pytest.raises(KeyError):
ret = ldap_bootstrap.get_group('test-foo')
@pytest.mark.asyncio
async def test_sync_group_recursive(keycloak_bootstrap, ldap_bootstrap):
await ldap_bootstrap.keycloak_ldap_link(bootstrap.get_token())
await users.create_user('testuser', first_name='first', last_name='last', email='foo@test', rest_client=keycloak_bootstrap)
await users.create_user('testuser2', first_name='first', last_name='last', email='foo2@test', rest_client=keycloak_bootstrap)
await groups.create_group('/posix', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser', rest_client=keycloak_bootstrap)
await groups.add_user_group('/posix', 'testuser2', rest_client=keycloak_bootstrap)
await create_posix_account.process('/posix', keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
await groups.create_group('/groups', rest_client=keycloak_bootstrap)
await groups.create_group('/groups/test', rest_client=keycloak_bootstrap)
await groups.create_group('/groups/test/foo', rest_client=keycloak_bootstrap)
await groups.add_user_group('/groups/test', 'testuser', rest_client=keycloak_bootstrap)
await groups.add_user_group('/groups/test/foo', 'testuser2', rest_client=keycloak_bootstrap)
await sync_ldap_groups.process('/groups', posix=False, recursive=True, keycloak_client=keycloak_bootstrap, ldap_client=ldap_bootstrap)
ret = ldap_bootstrap.get_group('test')
print(ret)
assert 'gidNumber' not in ret
assert 'member' in ret
assert 'uid=testuser,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member']
ret = ldap_bootstrap.get_group('test-foo')
print(ret)
assert 'gidNumber' not in ret
assert 'member' in ret
assert 'uid=testuser2,'+ldap_bootstrap.config['LDAP_USER_BASE'] in ret['member'] | 52.876847 | 138 | 0.772592 | 1,432 | 10,734 | 5.471369 | 0.052374 | 0.156222 | 0.187875 | 0.172304 | 0.949458 | 0.943331 | 0.943331 | 0.918315 | 0.891512 | 0.870325 | 0 | 0.002922 | 0.107229 | 10,734 | 203 | 139 | 52.876847 | 0.814672 | 0.002888 | 0 | 0.78125 | 0 | 0 | 0.145567 | 0.009717 | 0 | 0 | 0 | 0 | 0.21875 | 1 | 0.0375 | false | 0 | 0.0375 | 0 | 0.075 | 0.05 | 0 | 0 | 0 | null | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 9 |
33937c0622d62a4ff0409ddb1377d3f94345f1a2 | 11,517 | py | Python | crawler/tests.py | davide-ceretti/web-crawler | 3fbc44641e15992ff6b1c4190c9cd5db865bbcda | [
"MIT"
] | null | null | null | crawler/tests.py | davide-ceretti/web-crawler | 3fbc44641e15992ff6b1c4190c9cd5db865bbcda | [
"MIT"
] | 1 | 2015-02-21T19:28:53.000Z | 2015-02-21T19:28:53.000Z | crawler/tests.py | davide-ceretti/web-crawler | 3fbc44641e15992ff6b1c4190c9cd5db865bbcda | [
"MIT"
] | null | null | null | import unittest
import mock
from requests.models import Response
from .core import Crawler
@mock.patch('crawler.core.requests')
class TestParse(unittest.TestCase):
def setUp(self):
self.crawler = Crawler('http://www.google.com')
def test_empty_content(self, requests):
response = mock.Mock(spec=Response, status_code=200, content='')
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
self.assertSetEqual(result, set())
def test_no_a_tags(self, requests):
content = """
<html>
<body>
<h1>Hello world</h1>
</body>
</html>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
self.assertSetEqual(result, set())
def test_a_tag_external_domain(self, requests):
content = """
<a href='http://www.facebook.com'>Facebook</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
self.assertSetEqual(result, set())
def test_a_tag_internal_domain_single_quote(self, requests):
content = """
<a href='http://www.google.com/about'>About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {'http://www.google.com/about'}
self.assertSetEqual(result, expected)
def test_a_tag_internal_domain_double_quote(self, requests):
content = """
<a href="http://www.google.com/about">About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {'http://www.google.com/about'}
self.assertSetEqual(result, expected)
def test_multiple_a_tags_internal_domain(self, requests):
content = """
<a href='http://www.google.com/about'>About</a>
<h1>Some stuff</h1>
<a href='http://www.google.com/jobs'>Jobs</a>
<a href='http://www.google.com/contact'>Contact</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {
'http://www.google.com/about',
'http://www.google.com/jobs',
'http://www.google.com/contact',
}
self.assertSetEqual(result, expected)
def test_a_tag_inside_initial_page(self, requests):
content = """
<a href='#about'>About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
self.assertSetEqual(result, set())
def test_multiple_a_tag_same_link(self, requests):
content = """
<a href='http://www.google.com/about'>About</a>
<h1>Some stuff</h1>
<a href='http://www.google.com/about'>About again</a>
<a href='http://www.google.com/contact'>Contact</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
expected = {
'http://www.google.com/about',
'http://www.google.com/contact',
}
result = self.crawler.parse('http://www.google.com')
self.assertSetEqual(result, expected)
def test_a_tag_relative_path_initial_slash(self, requests):
content = """
<a href='/about'>About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {'http://www.google.com/about'}
self.assertSetEqual(result, expected)
def test_a_tag_relative_path_no_initial_slash(self, requests):
content = """
<a href='about'>About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {'http://www.google.com/about'}
self.assertSetEqual(result, expected)
def test_a_tag_relative_path_ending_slash(self, requests):
content = """
<a href='about/'>About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {'http://www.google.com/about'}
self.assertSetEqual(result, expected)
def test_a_tag_additional_attributes(self, requests):
content = """
<a class="red" href='about' attr="123">About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {'http://www.google.com/about'}
self.assertSetEqual(result, expected)
def test_a_tag_upper_case(self, requests):
content = """
<A HREF='about'>About</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
expected = {'http://www.google.com/about'}
self.assertSetEqual(result, expected)
def test_a_tag_mailto(self, requests):
content = """
<a href='mailto:admin@localhost.com'>Mail</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
self.assertSetEqual(result, set())
def test_a_tag_javascript(self, requests):
content = """
<a href='javascript:void(0)'>Javascript</a>
"""
response = mock.Mock(spec=Response, status_code=200, content=content)
requests.get.return_value = response
result = self.crawler.parse('http://www.google.com')
self.assertSetEqual(result, set())
@mock.patch.object(Crawler, 'parse')
class TestCrawl(unittest.TestCase):
maxDiff = None
def setUp(self):
self.crawler = Crawler('http://www.google.com')
def test_one_page_no_link(self, parse):
parse.return_value = {'http://www.google.com'}
result = self.crawler.crawl()
expected = {
'http://www.google.com': {'http://www.google.com'},
}
self.assertEqual(result, expected)
def test_two_pages_two_links_each_page(self, parse):
parse.side_effect = [
{'http://www.google.com', 'http://www.google.com/about'},
{'http://www.google.com', 'http://www.google.com/about'},
]
result = self.crawler.crawl()
expected = {
'http://www.google.com': {
'http://www.google.com',
'http://www.google.com/about',
},
'http://www.google.com/about': {
'http://www.google.com',
'http://www.google.com/about',
}
}
self.assertEqual(result, expected)
def test_max_iterations(self, parse):
self.crawler.MAX_ITERATIONS = 3
parse.side_effect = [
{'http://www.google.com/a'},
{'http://www.google.com/b'},
{'http://www.google.com/c'},
{'http://www.google.com/d'},
{'http://www.google.com/e'},
]
result = self.crawler.crawl()
expected = {
'http://www.google.com': {'http://www.google.com/a'},
'http://www.google.com/a': {'http://www.google.com/b'},
'http://www.google.com/b': {'http://www.google.com/c'},
}
self.assertEqual(result, expected)
def test_all_links_crawled(self, parse):
parse.side_effect = [
{'http://www.google.com/a', 'http://www.google.com/a'},
{'http://www.google.com/b', 'http://www.google.com/c'},
{'http://www.google.com/d', 'http://www.google.com/e'},
{'http://www.google.com/f', 'http://www.google.com/a'},
{'http://www.google.com/b', 'http://www.google.com/a'},
{'http://www.google.com/c'},
{'http://www.google.com/b'},
]
result = self.crawler.crawl()
expected_keys = {
'http://www.google.com',
'http://www.google.com/a',
'http://www.google.com/b',
'http://www.google.com/c',
'http://www.google.com/d',
'http://www.google.com/e',
'http://www.google.com/f',
}
self.assertEqual(set(result.keys()), expected_keys)
self.assertEqual(len(result.keys()), len(expected_keys))
class TestGenerateXMLData(unittest.TestCase):
def setUp(self):
self.crawler = Crawler('one')
def test_no_links(self):
crawl_dit = {
'one': set(),
}
data = self.crawler.get_xml_data(crawl_dit)
expected = set([
('one', 1),
])
self.assertSetEqual(set(data), expected)
def test_multiple_links(self):
crawl_dit = {
'one': {'one', 'two', 'three', 'five'},
'two': {'one', 'five'},
'three': {'one', 'four'},
'four': {'one', 'three'},
'five': set(),
}
data = self.crawler.get_xml_data(crawl_dit)
expected = set([
('one', 0.40),
('two', 0.10),
('three', 0.20),
('four', 0.10),
('five', 0.20),
])
self.assertSetEqual(set(data), expected)
class TestGenerateSiteMap(unittest.TestCase):
def setUp(self):
self.crawler = Crawler('one')
def test_no_urls(self):
data = tuple()
result = self.crawler.generate_site_map(data)
expected = """<?xml version="1.0" ?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9"/>
"""
self.assertEqual(result, expected)
def test_multiple_urls(self):
data = set([
('one', 0.661),
('two', 0.228),
('three', 0.111),
('four', 1),
])
result = self.crawler.generate_site_map(data)
expected = """<?xml version="1.0" ?>
<urlset xmlns="http://www.sitemaps.org/schemas/sitemap/0.9">
<url>
<loc>four</loc>
<priority>1.00</priority>
</url>
<url>
<loc>one</loc>
<priority>0.66</priority>
</url>
<url>
<loc>two</loc>
<priority>0.23</priority>
</url>
<url>
<loc>three</loc>
<priority>0.11</priority>
</url>
</urlset>
"""
self.assertEqual(result, expected)
if __name__ == '__main__':
unittest.main()
| 30.307895 | 77 | 0.56473 | 1,336 | 11,517 | 4.755988 | 0.108533 | 0.091438 | 0.163676 | 0.201448 | 0.819799 | 0.782184 | 0.755115 | 0.755115 | 0.737488 | 0.720491 | 0 | 0.012515 | 0.271512 | 11,517 | 379 | 78 | 30.387863 | 0.744815 | 0 | 0 | 0.576389 | 0 | 0 | 0.307285 | 0.027438 | 0 | 0 | 0 | 0 | 0.083333 | 1 | 0.09375 | false | 0 | 0.013889 | 0 | 0.125 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
33c19030d65f38ec90e893124f89cc32035b7c3f | 23,611 | py | Python | Yellow_Pages_Finland/unit_tests.py | Jay4C/Web-Scraping | 187679bee035dad661d983b5a8382240f820c337 | [
"MIT"
] | 1 | 2022-02-28T05:05:06.000Z | 2022-02-28T05:05:06.000Z | Yellow_Pages_Finland/unit_tests.py | Jay4C/Web-Scraping | 187679bee035dad661d983b5a8382240f820c337 | [
"MIT"
] | 23 | 2020-03-04T22:17:32.000Z | 2021-01-21T09:35:33.000Z | Yellow_Pages_Finland/unit_tests.py | Jay4C/Web-Scraping | 187679bee035dad661d983b5a8382240f820c337 | [
"MIT"
] | null | null | null | from bs4 import BeautifulSoup
import requests
import time
import pymysql.cursors
import unittest
class UnitTestsDataMinerYellowPagesFinland(unittest.TestCase):
def test_extract_email_from_one_result(self):
print("test_extract_email_from_one_result")
headers = {
'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103'
}
url = "https://www.finder.fi/Hotelli/Original+Sokos+Hotel+Vaakuna+Pori/Pori/yhteystiedot/175394"
# Request the content of a page from the url
html = requests.get(url, headers=headers)
# Parse the content of html_doc
soup = BeautifulSoup(html.content, 'html.parser')
if soup.find('a', {'class': 'listing-email'}) is not None:
email = "info@" + soup.find('a', {'class': 'listing-email'}).get('href').split("@")[1]
print("email type 1 : " + email)
else:
print("no email type 1")
def test_extract_email_from_website_from_one_result(self):
print("test_extract_email_from_website_from_one_result")
headers = {
'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103'
}
url = "https://www.finder.fi/Hotelli/Original+Sokos+Hotel+Vaakuna+Pori/Pori/yhteystiedot/175394"
# Request the content of a page from the url
html = requests.get(url, headers=headers)
# Parse the content of html_doc
soup = BeautifulSoup(html.content, 'html.parser')
if soup.find('a', {'class': 'listing-website-url'}) is not None:
email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \
.get('href').replace("www.", "") \
.replace("http://", "") \
.replace("https://", "") \
.split('/')[0] \
.replace('/', '')
print("email type 2 : " + email)
else:
print("no email type 2")
def test_extract_each_email_from_one_page_of_results_for_one_activity_and_one_capital(self):
print("test_extract_each_email_from_one_page_of_results_for_one_activity_and_one_capital")
headers = {
'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103'
}
url_page_of_results = "https://www.finder.fi/search?what=hotel%20Helsinki&page=2"
print(url_page_of_results)
# Request the content of a page from the url
html = requests.get(url_page_of_results, headers=headers)
# Parse the content of html_doc
soup = BeautifulSoup(html.content, 'html.parser')
if soup.find('div', {'class': 'SearchResult'}) is not None:
all_results = soup.find_all('div', {'class': 'SearchResult'})
try:
for result in all_results:
if result.find('a', {'class': 'SearchResult__ProfileLink'}) is not None:
url_result = "https://www.finder.fi" + result\
.find('a', {'class': 'SearchResult__ProfileLink'})\
.get('href')
# Request the content of a page from the url
html = requests.get(url_result, headers=headers)
# Parse the content of html_doc
soup = BeautifulSoup(html.content, 'html.parser')
if soup.find('a', {'class': 'listing-email'}) is not None:
email = "info@" + soup.find('a', {'class': 'listing-email'}).get('href').split("@")[1]
print("email type 1 : " + email)
else:
print("no email type 1")
if soup.find('a', {'class': 'listing-website-url'}) is not None:
email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \
.get('href').replace("www.", "") \
.replace("http://", "") \
.replace("https://", "") \
.split('/')[0] \
.replace('/', '')
print("email type 2 : " + email)
else:
print("no email type 2")
else:
print("no a class SearchResult__ProfileLink")
except Exception as e:
print("error all_results : " + str(e))
else:
print("no div class SearchResult")
def test_extract_each_email_from_all_pages_of_results_for_one_activity_and_one_capital(self):
print("test_extract_each_email_from_all_pages_of_results_for_one_activity_and_one_capital")
activity = "hotel"
city = "Helsinki"
url_search = "https://www.finder.fi/search?what=" + activity + " " + city
headers = {
'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103'
}
html_search = requests.get(url_search, headers=headers)
soup_search = BeautifulSoup(html_search.content, 'html.parser')
number_of_pages = 0
try:
if soup_search.find("a", {"class": "SearchResultList__MoreButton"}) is not None:
number_of_pages_with_coma = int(soup_search.find("a", {"class": "SearchResultList__MoreButton"})
.text
.replace("Lisää tuloksia (25/", "")
.replace(")", "")
) / 25
if int(str(number_of_pages_with_coma).split(".")[1][:1]) < 5:
number_of_pages += round(number_of_pages_with_coma) + 1
print('number_of_pages : ' + str(number_of_pages))
elif int(str(number_of_pages_with_coma).split(".")[1][:1]) >= 5:
number_of_pages += round(number_of_pages_with_coma)
print('number_of_pages : ' + str(number_of_pages))
for i in range(1, number_of_pages + 1):
i_1 = 0
url_of_one_page_of_results = url_search + "&page=" + str(i)
print(url_of_one_page_of_results)
time.sleep(3)
html_of_one_page_of_results = requests.get(url_of_one_page_of_results, headers=headers)
soup_of_one_page_of_results = BeautifulSoup(html_of_one_page_of_results.content, 'html.parser')
if soup_of_one_page_of_results.find('div', {'class': 'SearchResult'}) is not None:
all_results = soup_of_one_page_of_results.find_all('div', {'class': 'SearchResult'})
try:
for result in all_results:
i_1 += 1
if result.find('a', {'class': 'SearchResult__ProfileLink'}) is not None:
url_result = "https://www.finder.fi" + result \
.find('a', {'class': 'SearchResult__ProfileLink'}) \
.get('href')
# Request the content of a page from the url
html = requests.get(url_result, headers=headers)
# Parse the content of html_doc
soup = BeautifulSoup(html.content, 'html.parser')
if soup.find('a', {'class': 'listing-email'}) is not None:
email = "info@" + \
soup.find('a', {'class': 'listing-email'}).get('href').split("@")[1]
print(str(i_1) + " _ email type 1 : " + email)
else:
print(str(i_1) + " _ no email type 1")
if soup.find('a', {'class': 'listing-website-url'}) is not None:
email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \
.get('href').replace("www.", "") \
.replace("http://", "") \
.replace("https://", "") \
.split('/')[0] \
.replace('/', '')
print(str(i_1) + " _ email type 2 : " + email)
else:
print(str(i_1) + " _ no email type 2")
else:
print(str(i_1) + " _ no a class SearchResult__ProfileLink")
except Exception as e:
print("error all_results : " + str(e))
else:
print("no div class SearchResult")
else:
print("no pages at all")
except Exception as e:
print("error 2 : " + str(e))
def test_extract_each_email_from_all_pages_of_results_for_all_activities_and_all_capitals(self):
print("test_extract_each_email_from_all_pages_of_results_for_all_activities_and_all_capitals")
activites = [
{'id': '1', 'url': 'job'},
{'id': '2', 'url': 'kiinteä'},
{'id': '3', 'url': 'rekrytointi'},
{'id': '4', 'url': 'software'},
{'id': '5', 'url': 'hotel'},
{'id': '6', 'url': 'vuokranantaja'},
{'id': '7', 'url': 'puhdistus'},
{'id': '8', 'url': 'yhteiskunnassa'},
{'id': '9', 'url': 'taloudellinen'},
{'id': '10', 'url': 'ravintola'},
{'id': '11', 'url': 'rakennus'},
{'id': '12', 'url': 'kampaaja'},
{'id': '13', 'url': 'kukkakauppias'},
{'id': '14', 'url': 'lukkoseppä'},
{'id': '15', 'url': 'leipomo'},
{'id': '16', 'url': 'varmuus'},
{'id': '17', 'url': 'apteekki'},
{'id': '18', 'url': 'liikkua'},
{'id': '19', 'url': 'sähköä'},
{'id': '20', 'url': 'putkisto'},
{'id': '21', 'url': 'turvallisuus'},
{'id': '22', 'url': 'lakimies'},
{'id': '23', 'url': 'pankki'},
{'id': '24', 'url': 'autotalli'},
{'id': '25', 'url': 'hammaslääkäri'},
{'id': '26', 'url': 'lääkäri'},
{'id': '27', 'url': 'kirjanpito'},
{'id': '28', 'url': 'supermarket'},
{'id': '29', 'url': 'notaari'},
{'id': '30', 'url': 'helmi'},
{'id': '31', 'url': 'ompelija'},
{'id': '32', 'url': 'liha'},
{'id': '33', 'url': 'kirjakauppa'},
{'id': '34', 'url': 'arkkitehti'},
{'id': '36', 'url': 'sementti'},
{'id': '37', 'url': 'lämmitin'},
{'id': '38', 'url': 'vene'},
{'id': '39', 'url': 'kylmä'},
{'id': '41', 'url': 'teräs'},
{'id': '42', 'url': 'kemiallinen'},
{'id': '43', 'url': 'kaasu'},
{'id': '44', 'url': 'kulta'}
]
capitales_du_monde = [
{'id': '510', 'nom': 'Rovaniemi'},
{'id': '511', 'nom': 'Oulu'},
{'id': '512', 'nom': 'Kajaani'},
{'id': '513', 'nom': 'Joensuu'},
{'id': '514', 'nom': 'Kuopio'},
{'id': '515', 'nom': 'Mikkeli'},
{'id': '516', 'nom': 'Lappeenranta'},
{'id': '517', 'nom': 'Jyväskylä'},
{'id': '518', 'nom': 'Seinäjoki'},
{'id': '519', 'nom': 'Vaasa'},
{'id': '520', 'nom': 'Kokkola'},
{'id': '521', 'nom': 'Tampere'},
{'id': '522', 'nom': 'Pori'},
{'id': '523', 'nom': 'Lahti'},
{'id': '524', 'nom': 'Hämeenlinna'},
{'id': '525', 'nom': 'Kouvola'},
{'id': '526', 'nom': 'Kotka'},
{'id': '527', 'nom': 'Helsinki'},
{'id': '528', 'nom': 'Turku'},
{'id': '529', 'nom': 'Porvoo'},
]
try:
for capitale in capitales_du_monde:
for activite in activites:
activity = activite.get('url')
city = capitale.get('nom')
url_search = "https://www.finder.fi/search?what=" + activity + " " + city
headers = {
'User-Agent': 'Mozilla/5.0 (X11; Linux x86_64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/51.0.2704.103'
}
html_search = requests.get(url_search, headers=headers)
soup_search = BeautifulSoup(html_search.content, 'html.parser')
number_of_pages = 0
try:
if soup_search.find("a", {"class": "SearchResultList__MoreButton"}) is not None:
number_of_pages_with_coma = int(
soup_search.find("a", {"class": "SearchResultList__MoreButton"})
.text
.replace("Lisää tuloksia (25/", "")
.replace(")", "")
) / 25
if int(str(number_of_pages_with_coma).split(".")[1][:1]) < 5:
number_of_pages += round(number_of_pages_with_coma) + 1
print('number_of_pages : ' + str(number_of_pages))
elif int(str(number_of_pages_with_coma).split(".")[1][:1]) >= 5:
number_of_pages += round(number_of_pages_with_coma)
print('number_of_pages : ' + str(number_of_pages))
for i in range(1, number_of_pages + 1):
i_1 = 0
url_of_one_page_of_results = url_search + "&page=" + str(i)
print(url_of_one_page_of_results)
time.sleep(3)
html_of_one_page_of_results = requests.get(url_of_one_page_of_results, headers=headers)
soup_of_one_page_of_results = BeautifulSoup(html_of_one_page_of_results.content,
'html.parser')
if soup_of_one_page_of_results.find('div', {'class': 'SearchResult'}) is not None:
all_results = soup_of_one_page_of_results.find_all('div', {'class': 'SearchResult'})
try:
for result in all_results:
i_1 += 1
if result.find('a', {'class': 'SearchResult__ProfileLink'}) is not None:
url_result = "https://www.finder.fi" + result \
.find('a', {'class': 'SearchResult__ProfileLink'}) \
.get('href')
# Request the content of a page from the url
html = requests.get(url_result, headers=headers)
# Parse the content of html_doc
soup = BeautifulSoup(html.content, 'html.parser')
if soup.find('a', {'class': 'listing-email'}) is not None:
email = "info@" + \
soup.find('a', {'class': 'listing-email'}).get(
'href').split("@")[1]
print(str(i_1) + " _ email type 1 : " + email)
try:
connection = pymysql.connect(
host='localhost',
port=3306,
user='',
password='',
db='contacts_professionnels',
charset='utf8mb4',
cursorclass=pymysql.cursors.DictCursor
)
with connection.cursor() as cursor:
try:
sql = "INSERT INTO `emails` (" \
"`id_activite`, " \
"`id_capitale_du_monde`, " \
"`email`) VALUE (%s, %s, %s)"
cursor.execute(sql, (
activite.get('id'),
capitale.get('id'),
email))
connection.commit()
print(str(i_1) + " The record is stored : " + email)
connection.close()
except Exception as e:
print(str(i_1)
+ " The record already exists : "
+ email
+ " " + str(e))
connection.close()
except Exception as e:
print(str(
i_1) + " An error with the email : " + email + " " + str(e))
else:
print(str(i_1) + " _ no email type 1")
if soup.find('a', {'class': 'listing-website-url'}) is not None:
email = "info@" + soup.find('a', {'class': 'listing-website-url'}) \
.get('href').replace("www.", "") \
.replace("http://", "") \
.replace("https://", "") \
.split('/')[0] \
.replace('/', '')
print(str(i_1) + " _ email type 2 : " + email)
try:
connection = pymysql.connect(
host='localhost',
port=3306,
user='',
password='',
db='contacts_professionnels',
charset='utf8mb4',
cursorclass=pymysql.cursors.DictCursor
)
with connection.cursor() as cursor:
try:
sql = "INSERT INTO `emails` (" \
"`id_activite`, " \
"`id_capitale_du_monde`, " \
"`email`) VALUE (%s, %s, %s)"
cursor.execute(sql, (
activite.get('id'),
capitale.get('id'),
email))
connection.commit()
print(str(i_1) + " The record is stored : " + email)
connection.close()
except Exception as e:
print(str(i_1)
+ " The record already exists : "
+ email
+ " " + str(e))
connection.close()
except Exception as e:
print(str(
i_1) + " An error with the email : " + email + " " + str(e))
else:
print(str(i_1) + " _ no email type 2")
else:
print(str(i_1) + " _ no a class SearchResult__ProfileLink")
except Exception as e:
print("error all_results : " + str(e))
else:
print("no div class SearchResult")
else:
print("no pages at all")
except Exception as e:
print("error 2 : " + str(e))
finally:
print('done')
if __name__ == '__main__':
unittest.main()
| 52.35255 | 131 | 0.367286 | 1,915 | 23,611 | 4.324804 | 0.147258 | 0.021009 | 0.031393 | 0.034774 | 0.842067 | 0.839773 | 0.833253 | 0.833253 | 0.829148 | 0.819488 | 0 | 0.031141 | 0.513108 | 23,611 | 450 | 132 | 52.468889 | 0.689109 | 0.018508 | 0 | 0.677054 | 0 | 0.01983 | 0.188118 | 0.032727 | 0 | 0 | 0 | 0 | 0 | 1 | 0.014164 | false | 0.005666 | 0.014164 | 0 | 0.031161 | 0.135977 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
33c3687bd4a178932d5dee4460ff84c082e40454 | 415 | py | Python | chapter 9/sampleCode4.py | DTAIEB/Thoughtful-Data-Science | 8b80e8f3e33b6fdc6672ecee1f27e0b983b28241 | [
"Apache-2.0"
] | 15 | 2018-06-01T19:18:32.000Z | 2021-11-28T03:31:35.000Z | chapter 9/sampleCode4.py | chshychen/Thoughtful-Data-Science | 8b80e8f3e33b6fdc6672ecee1f27e0b983b28241 | [
"Apache-2.0"
] | 1 | 2018-12-17T02:01:42.000Z | 2018-12-17T02:01:42.000Z | chapter 9/sampleCode4.py | chshychen/Thoughtful-Data-Science | 8b80e8f3e33b6fdc6672ecee1f27e0b983b28241 | [
"Apache-2.0"
] | 10 | 2018-09-23T02:45:45.000Z | 2022-03-12T15:32:05.000Z | airports = pixiedust.sampleData("https://github.com/DTAIEB/Thoughtful-Data-Science/raw/master/chapter%209/USFlightsAnalysis/airports.csv")
airlines = pixiedust.sampleData("https://github.com/DTAIEB/Thoughtful-Data-Science/raw/master/chapter%209/USFlightsAnalysis/airlines.csv")
flights = pixiedust.sampleData("https://github.com/DTAIEB/Thoughtful-Data-Science/raw/master/chapter%209/USFlightsAnalysis/flights.zip")
| 103.75 | 138 | 0.826506 | 51 | 415 | 6.72549 | 0.372549 | 0.166181 | 0.209913 | 0.262391 | 0.83965 | 0.83965 | 0.83965 | 0.83965 | 0.83965 | 0.83965 | 0 | 0.022167 | 0.021687 | 415 | 3 | 139 | 138.333333 | 0.82266 | 0 | 0 | 0 | 0 | 1 | 0.742169 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 12 |
33ec5f0922b60f6106a8d26116393ef6b0028649 | 8,968 | py | Python | ems_auth/decorators.py | Atwinenickson/lendsuphumanresourcemanagement | b46df164d59a4e94300376d679e07bd9a60d6343 | [
"MIT",
"Unlicense"
] | 36 | 2019-11-26T11:46:32.000Z | 2022-02-17T13:18:18.000Z | ems_auth/decorators.py | Atwinenickson/lendsuphumanresourcemanagement | b46df164d59a4e94300376d679e07bd9a60d6343 | [
"MIT",
"Unlicense"
] | 13 | 2020-02-14T09:30:16.000Z | 2022-03-12T00:58:09.000Z | ems_auth/decorators.py | Atwinenickson/lendsuphumanresourcemanagement | b46df164d59a4e94300376d679e07bd9a60d6343 | [
"MIT",
"Unlicense"
] | 16 | 2019-06-14T12:11:29.000Z | 2022-02-14T15:16:07.000Z | from django.contrib.auth import logout, get_user_model
from django.http import HttpResponseRedirect
from django.shortcuts import render
from django.urls import reverse
from ems_admin.selectors import get_user
from ems_auth.models import SolitonUser
User = get_user_model()
def ems_login_required(function):
def wrapper(request, *args, **kw):
user = request.user
if user.is_authenticated:
return function(request, *args, **kw)
else:
return HttpResponseRedirect(reverse('login'))
return wrapper
def super_admin_required(function):
def wrapper(request, *args, **kw):
user = request.user
if user.is_superuser:
return function(request, *args, **kw)
else:
return HttpResponseRedirect(reverse('super_admin_required_page'))
return wrapper
def employee_required(function):
def wrapper(request, *args, **kw):
user = request.user
try:
solitonuser = user.solitonuser
return function(request, *args, **kw)
except SolitonUser.DoesNotExist:
return render(request, "employee_required.html")
return wrapper
def hr_required(function):
def wrapper(request, *args, **kw):
user = request.user
if user.is_hr:
return function(request, *args, **kw)
else:
return HttpResponseRedirect(reverse('hr_required_page'))
return wrapper
def hod_required(function):
def wrapper(request, *args, **kw):
user = request.user
if user.is_hod:
return function(request, *args, **kw)
else:
return HttpResponseRedirect(reverse('hod_required_page'))
return wrapper
def first_login(function):
def wrapper(request, *args, **kwargs):
user = request.user
if not user.password_changed:
user.password_changed = True
user.save()
logout(request)
return render(request, "ems_auth/first_time_login.html")
else:
return function(request, *args, **kwargs)
return wrapper
def employees_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Employees")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
def organisation_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Organisation")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
def leave_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# ems_permission = EMSPermission.objects.filter(user=user, name="Leave")[0]
# if ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except:
# return function(request, **kw)
#
# return wrapper
pass
def payroll_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Payroll")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
def overtime_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Overtime")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
def holidays_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Holidays")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
def recruitment_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Recruitment")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
def contracts_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Contracts")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except:
# return function(request, **kw)
# return wrapper
pass
def training_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Training")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
def learning_and_development_full_auth_required(function):
# def wrapper(request, **kw):
# try:
# user_id = request.user.id
# user = get_user(user_id)
# try:
# ems_permission = EMSPermission.objects.filter(user=user, name="Learning and Development")[0]
# except IndexError:
# ems_permission = None
#
# if ems_permission and ems_permission.full_auth:
# return function(request, **kw)
# else:
# return render(request, "ems_auth/full_auth_required.html")
#
# except User.DoesNotExist:
# return function(request, **kw)
#
# return wrapper
pass
| 30.09396 | 110 | 0.566682 | 917 | 8,968 | 5.354417 | 0.080698 | 0.100611 | 0.111202 | 0.093686 | 0.835845 | 0.802037 | 0.802037 | 0.802037 | 0.79165 | 0.739511 | 0 | 0.001673 | 0.333519 | 8,968 | 297 | 111 | 30.195286 | 0.819809 | 0.583965 | 0 | 0.468354 | 0 | 0 | 0.032349 | 0.02166 | 0 | 0 | 0 | 0 | 0 | 1 | 0.278481 | false | 0.151899 | 0.075949 | 0 | 0.582278 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 9 |
1d2187e26e2a4aa2bc2f1b2eb7c38ef590a9d6b1 | 119 | py | Python | customization/patches/custom_field.py | KaviyaPeriyasamy/customization | 1acc0007bda8714828a87d336a77402261d2849a | [
"MIT"
] | null | null | null | customization/patches/custom_field.py | KaviyaPeriyasamy/customization | 1acc0007bda8714828a87d336a77402261d2849a | [
"MIT"
] | null | null | null | customization/patches/custom_field.py | KaviyaPeriyasamy/customization | 1acc0007bda8714828a87d336a77402261d2849a | [
"MIT"
] | 1 | 2021-10-08T07:09:59.000Z | 2021-10-08T07:09:59.000Z | import frappe
from customization.custom.custom_field import make_custom_fields
def execute():
make_custom_fields() | 23.8 | 64 | 0.831933 | 16 | 119 | 5.875 | 0.625 | 0.212766 | 0.340426 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.109244 | 119 | 5 | 65 | 23.8 | 0.886792 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.25 | true | 0 | 0.5 | 0 | 0.75 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 8 |
1d30d602b1eb3c568e078000c5717788781cd919 | 45,572 | py | Python | sdk/python/pulumi_aws/glue/catalog_table.py | chivandikwa/pulumi-aws | 19c08bf9dcb90544450ffa4eec7bf6751058fde2 | [
"ECL-2.0",
"Apache-2.0"
] | 1 | 2021-11-10T16:33:40.000Z | 2021-11-10T16:33:40.000Z | sdk/python/pulumi_aws/glue/catalog_table.py | chivandikwa/pulumi-aws | 19c08bf9dcb90544450ffa4eec7bf6751058fde2 | [
"ECL-2.0",
"Apache-2.0"
] | null | null | null | sdk/python/pulumi_aws/glue/catalog_table.py | chivandikwa/pulumi-aws | 19c08bf9dcb90544450ffa4eec7bf6751058fde2 | [
"ECL-2.0",
"Apache-2.0"
] | null | null | null | # coding=utf-8
# *** WARNING: this file was generated by the Pulumi Terraform Bridge (tfgen) Tool. ***
# *** Do not edit by hand unless you're certain you know what you are doing! ***
import warnings
import pulumi
import pulumi.runtime
from typing import Any, Mapping, Optional, Sequence, Union, overload
from .. import _utilities
from . import outputs
from ._inputs import *
__all__ = ['CatalogTableArgs', 'CatalogTable']
@pulumi.input_type
class CatalogTableArgs:
def __init__(__self__, *,
database_name: pulumi.Input[str],
catalog_id: Optional[pulumi.Input[str]] = None,
description: Optional[pulumi.Input[str]] = None,
name: Optional[pulumi.Input[str]] = None,
owner: Optional[pulumi.Input[str]] = None,
parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None,
partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]] = None,
partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]] = None,
retention: Optional[pulumi.Input[int]] = None,
storage_descriptor: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']] = None,
table_type: Optional[pulumi.Input[str]] = None,
target_table: Optional[pulumi.Input['CatalogTableTargetTableArgs']] = None,
view_expanded_text: Optional[pulumi.Input[str]] = None,
view_original_text: Optional[pulumi.Input[str]] = None):
"""
The set of arguments for constructing a CatalogTable resource.
:param pulumi.Input[str] database_name: Name of the catalog database that contains the target table.
:param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides.
:param pulumi.Input[str] description: Description of the table.
:param pulumi.Input[str] name: Name of the target table.
:param pulumi.Input[str] owner: Owner of the table.
:param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form.
:param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below.
:param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below.
:param pulumi.Input[int] retention: Retention time for this table.
:param pulumi.Input['CatalogTableStorageDescriptorArgs'] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below.
:param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty.
:param pulumi.Input['CatalogTableTargetTableArgs'] target_table: Configuration block of a target table for resource linking. See `target_table` below.
:param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null.
:param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null.
"""
pulumi.set(__self__, "database_name", database_name)
if catalog_id is not None:
pulumi.set(__self__, "catalog_id", catalog_id)
if description is not None:
pulumi.set(__self__, "description", description)
if name is not None:
pulumi.set(__self__, "name", name)
if owner is not None:
pulumi.set(__self__, "owner", owner)
if parameters is not None:
pulumi.set(__self__, "parameters", parameters)
if partition_indices is not None:
pulumi.set(__self__, "partition_indices", partition_indices)
if partition_keys is not None:
pulumi.set(__self__, "partition_keys", partition_keys)
if retention is not None:
pulumi.set(__self__, "retention", retention)
if storage_descriptor is not None:
pulumi.set(__self__, "storage_descriptor", storage_descriptor)
if table_type is not None:
pulumi.set(__self__, "table_type", table_type)
if target_table is not None:
pulumi.set(__self__, "target_table", target_table)
if view_expanded_text is not None:
pulumi.set(__self__, "view_expanded_text", view_expanded_text)
if view_original_text is not None:
pulumi.set(__self__, "view_original_text", view_original_text)
@property
@pulumi.getter(name="databaseName")
def database_name(self) -> pulumi.Input[str]:
"""
Name of the catalog database that contains the target table.
"""
return pulumi.get(self, "database_name")
@database_name.setter
def database_name(self, value: pulumi.Input[str]):
pulumi.set(self, "database_name", value)
@property
@pulumi.getter(name="catalogId")
def catalog_id(self) -> Optional[pulumi.Input[str]]:
"""
ID of the Data Catalog in which the table resides.
"""
return pulumi.get(self, "catalog_id")
@catalog_id.setter
def catalog_id(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "catalog_id", value)
@property
@pulumi.getter
def description(self) -> Optional[pulumi.Input[str]]:
"""
Description of the table.
"""
return pulumi.get(self, "description")
@description.setter
def description(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "description", value)
@property
@pulumi.getter
def name(self) -> Optional[pulumi.Input[str]]:
"""
Name of the target table.
"""
return pulumi.get(self, "name")
@name.setter
def name(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "name", value)
@property
@pulumi.getter
def owner(self) -> Optional[pulumi.Input[str]]:
"""
Owner of the table.
"""
return pulumi.get(self, "owner")
@owner.setter
def owner(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "owner", value)
@property
@pulumi.getter
def parameters(self) -> Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]:
"""
Map of initialization parameters for the SerDe, in key-value form.
"""
return pulumi.get(self, "parameters")
@parameters.setter
def parameters(self, value: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]):
pulumi.set(self, "parameters", value)
@property
@pulumi.getter(name="partitionIndices")
def partition_indices(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]:
"""
Configuration block for a maximum of 3 partition indexes. See `partition_index` below.
"""
return pulumi.get(self, "partition_indices")
@partition_indices.setter
def partition_indices(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]):
pulumi.set(self, "partition_indices", value)
@property
@pulumi.getter(name="partitionKeys")
def partition_keys(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]:
"""
Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below.
"""
return pulumi.get(self, "partition_keys")
@partition_keys.setter
def partition_keys(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]):
pulumi.set(self, "partition_keys", value)
@property
@pulumi.getter
def retention(self) -> Optional[pulumi.Input[int]]:
"""
Retention time for this table.
"""
return pulumi.get(self, "retention")
@retention.setter
def retention(self, value: Optional[pulumi.Input[int]]):
pulumi.set(self, "retention", value)
@property
@pulumi.getter(name="storageDescriptor")
def storage_descriptor(self) -> Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]:
"""
Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below.
"""
return pulumi.get(self, "storage_descriptor")
@storage_descriptor.setter
def storage_descriptor(self, value: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]):
pulumi.set(self, "storage_descriptor", value)
@property
@pulumi.getter(name="tableType")
def table_type(self) -> Optional[pulumi.Input[str]]:
"""
Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty.
"""
return pulumi.get(self, "table_type")
@table_type.setter
def table_type(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "table_type", value)
@property
@pulumi.getter(name="targetTable")
def target_table(self) -> Optional[pulumi.Input['CatalogTableTargetTableArgs']]:
"""
Configuration block of a target table for resource linking. See `target_table` below.
"""
return pulumi.get(self, "target_table")
@target_table.setter
def target_table(self, value: Optional[pulumi.Input['CatalogTableTargetTableArgs']]):
pulumi.set(self, "target_table", value)
@property
@pulumi.getter(name="viewExpandedText")
def view_expanded_text(self) -> Optional[pulumi.Input[str]]:
"""
If the table is a view, the expanded text of the view; otherwise null.
"""
return pulumi.get(self, "view_expanded_text")
@view_expanded_text.setter
def view_expanded_text(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "view_expanded_text", value)
@property
@pulumi.getter(name="viewOriginalText")
def view_original_text(self) -> Optional[pulumi.Input[str]]:
"""
If the table is a view, the original text of the view; otherwise null.
"""
return pulumi.get(self, "view_original_text")
@view_original_text.setter
def view_original_text(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "view_original_text", value)
@pulumi.input_type
class _CatalogTableState:
def __init__(__self__, *,
arn: Optional[pulumi.Input[str]] = None,
catalog_id: Optional[pulumi.Input[str]] = None,
database_name: Optional[pulumi.Input[str]] = None,
description: Optional[pulumi.Input[str]] = None,
name: Optional[pulumi.Input[str]] = None,
owner: Optional[pulumi.Input[str]] = None,
parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None,
partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]] = None,
partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]] = None,
retention: Optional[pulumi.Input[int]] = None,
storage_descriptor: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']] = None,
table_type: Optional[pulumi.Input[str]] = None,
target_table: Optional[pulumi.Input['CatalogTableTargetTableArgs']] = None,
view_expanded_text: Optional[pulumi.Input[str]] = None,
view_original_text: Optional[pulumi.Input[str]] = None):
"""
Input properties used for looking up and filtering CatalogTable resources.
:param pulumi.Input[str] arn: The ARN of the Glue Table.
:param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides.
:param pulumi.Input[str] database_name: Name of the catalog database that contains the target table.
:param pulumi.Input[str] description: Description of the table.
:param pulumi.Input[str] name: Name of the target table.
:param pulumi.Input[str] owner: Owner of the table.
:param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form.
:param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below.
:param pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below.
:param pulumi.Input[int] retention: Retention time for this table.
:param pulumi.Input['CatalogTableStorageDescriptorArgs'] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below.
:param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty.
:param pulumi.Input['CatalogTableTargetTableArgs'] target_table: Configuration block of a target table for resource linking. See `target_table` below.
:param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null.
:param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null.
"""
if arn is not None:
pulumi.set(__self__, "arn", arn)
if catalog_id is not None:
pulumi.set(__self__, "catalog_id", catalog_id)
if database_name is not None:
pulumi.set(__self__, "database_name", database_name)
if description is not None:
pulumi.set(__self__, "description", description)
if name is not None:
pulumi.set(__self__, "name", name)
if owner is not None:
pulumi.set(__self__, "owner", owner)
if parameters is not None:
pulumi.set(__self__, "parameters", parameters)
if partition_indices is not None:
pulumi.set(__self__, "partition_indices", partition_indices)
if partition_keys is not None:
pulumi.set(__self__, "partition_keys", partition_keys)
if retention is not None:
pulumi.set(__self__, "retention", retention)
if storage_descriptor is not None:
pulumi.set(__self__, "storage_descriptor", storage_descriptor)
if table_type is not None:
pulumi.set(__self__, "table_type", table_type)
if target_table is not None:
pulumi.set(__self__, "target_table", target_table)
if view_expanded_text is not None:
pulumi.set(__self__, "view_expanded_text", view_expanded_text)
if view_original_text is not None:
pulumi.set(__self__, "view_original_text", view_original_text)
@property
@pulumi.getter
def arn(self) -> Optional[pulumi.Input[str]]:
"""
The ARN of the Glue Table.
"""
return pulumi.get(self, "arn")
@arn.setter
def arn(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "arn", value)
@property
@pulumi.getter(name="catalogId")
def catalog_id(self) -> Optional[pulumi.Input[str]]:
"""
ID of the Data Catalog in which the table resides.
"""
return pulumi.get(self, "catalog_id")
@catalog_id.setter
def catalog_id(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "catalog_id", value)
@property
@pulumi.getter(name="databaseName")
def database_name(self) -> Optional[pulumi.Input[str]]:
"""
Name of the catalog database that contains the target table.
"""
return pulumi.get(self, "database_name")
@database_name.setter
def database_name(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "database_name", value)
@property
@pulumi.getter
def description(self) -> Optional[pulumi.Input[str]]:
"""
Description of the table.
"""
return pulumi.get(self, "description")
@description.setter
def description(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "description", value)
@property
@pulumi.getter
def name(self) -> Optional[pulumi.Input[str]]:
"""
Name of the target table.
"""
return pulumi.get(self, "name")
@name.setter
def name(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "name", value)
@property
@pulumi.getter
def owner(self) -> Optional[pulumi.Input[str]]:
"""
Owner of the table.
"""
return pulumi.get(self, "owner")
@owner.setter
def owner(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "owner", value)
@property
@pulumi.getter
def parameters(self) -> Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]:
"""
Map of initialization parameters for the SerDe, in key-value form.
"""
return pulumi.get(self, "parameters")
@parameters.setter
def parameters(self, value: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]]):
pulumi.set(self, "parameters", value)
@property
@pulumi.getter(name="partitionIndices")
def partition_indices(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]:
"""
Configuration block for a maximum of 3 partition indexes. See `partition_index` below.
"""
return pulumi.get(self, "partition_indices")
@partition_indices.setter
def partition_indices(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionIndexArgs']]]]):
pulumi.set(self, "partition_indices", value)
@property
@pulumi.getter(name="partitionKeys")
def partition_keys(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]:
"""
Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below.
"""
return pulumi.get(self, "partition_keys")
@partition_keys.setter
def partition_keys(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['CatalogTablePartitionKeyArgs']]]]):
pulumi.set(self, "partition_keys", value)
@property
@pulumi.getter
def retention(self) -> Optional[pulumi.Input[int]]:
"""
Retention time for this table.
"""
return pulumi.get(self, "retention")
@retention.setter
def retention(self, value: Optional[pulumi.Input[int]]):
pulumi.set(self, "retention", value)
@property
@pulumi.getter(name="storageDescriptor")
def storage_descriptor(self) -> Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]:
"""
Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below.
"""
return pulumi.get(self, "storage_descriptor")
@storage_descriptor.setter
def storage_descriptor(self, value: Optional[pulumi.Input['CatalogTableStorageDescriptorArgs']]):
pulumi.set(self, "storage_descriptor", value)
@property
@pulumi.getter(name="tableType")
def table_type(self) -> Optional[pulumi.Input[str]]:
"""
Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty.
"""
return pulumi.get(self, "table_type")
@table_type.setter
def table_type(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "table_type", value)
@property
@pulumi.getter(name="targetTable")
def target_table(self) -> Optional[pulumi.Input['CatalogTableTargetTableArgs']]:
"""
Configuration block of a target table for resource linking. See `target_table` below.
"""
return pulumi.get(self, "target_table")
@target_table.setter
def target_table(self, value: Optional[pulumi.Input['CatalogTableTargetTableArgs']]):
pulumi.set(self, "target_table", value)
@property
@pulumi.getter(name="viewExpandedText")
def view_expanded_text(self) -> Optional[pulumi.Input[str]]:
"""
If the table is a view, the expanded text of the view; otherwise null.
"""
return pulumi.get(self, "view_expanded_text")
@view_expanded_text.setter
def view_expanded_text(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "view_expanded_text", value)
@property
@pulumi.getter(name="viewOriginalText")
def view_original_text(self) -> Optional[pulumi.Input[str]]:
"""
If the table is a view, the original text of the view; otherwise null.
"""
return pulumi.get(self, "view_original_text")
@view_original_text.setter
def view_original_text(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "view_original_text", value)
class CatalogTable(pulumi.CustomResource):
@overload
def __init__(__self__,
resource_name: str,
opts: Optional[pulumi.ResourceOptions] = None,
catalog_id: Optional[pulumi.Input[str]] = None,
database_name: Optional[pulumi.Input[str]] = None,
description: Optional[pulumi.Input[str]] = None,
name: Optional[pulumi.Input[str]] = None,
owner: Optional[pulumi.Input[str]] = None,
parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None,
partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]]] = None,
partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]]] = None,
retention: Optional[pulumi.Input[int]] = None,
storage_descriptor: Optional[pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']]] = None,
table_type: Optional[pulumi.Input[str]] = None,
target_table: Optional[pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']]] = None,
view_expanded_text: Optional[pulumi.Input[str]] = None,
view_original_text: Optional[pulumi.Input[str]] = None,
__props__=None):
"""
Provides a Glue Catalog Table Resource. You can refer to the [Glue Developer Guide](http://docs.aws.amazon.com/glue/latest/dg/populate-data-catalog.html) for a full explanation of the Glue Data Catalog functionality.
## Example Usage
### Basic Table
```python
import pulumi
import pulumi_aws as aws
aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable",
database_name="MyCatalogDatabase",
name="MyCatalogTable")
```
### Parquet Table for Athena
```python
import pulumi
import pulumi_aws as aws
aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable",
database_name="MyCatalogDatabase",
name="MyCatalogTable",
parameters={
"EXTERNAL": "TRUE",
"parquet.compression": "SNAPPY",
},
storage_descriptor=aws.glue.CatalogTableStorageDescriptorArgs(
columns=[
aws.glue.CatalogTableStorageDescriptorColumnArgs(
name="my_string",
type="string",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
name="my_double",
type="double",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
comment="",
name="my_date",
type="date",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
comment="",
name="my_bigint",
type="bigint",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
comment="",
name="my_struct",
type="struct<my_nested_string:string>",
),
],
input_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat",
location="s3://my-bucket/event-streams/my-stream",
output_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat",
ser_de_info=aws.glue.CatalogTableStorageDescriptorSerDeInfoArgs(
name="my-stream",
parameters={
"serialization.format": "1",
},
serialization_library="org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe",
),
),
table_type="EXTERNAL_TABLE")
```
## Import
Glue Tables can be imported with their catalog ID (usually AWS account ID), database name, and table name, e.g.,
```sh
$ pulumi import aws:glue/catalogTable:CatalogTable MyTable 123456789012:MyDatabase:MyTable
```
:param str resource_name: The name of the resource.
:param pulumi.ResourceOptions opts: Options for the resource.
:param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides.
:param pulumi.Input[str] database_name: Name of the catalog database that contains the target table.
:param pulumi.Input[str] description: Description of the table.
:param pulumi.Input[str] name: Name of the target table.
:param pulumi.Input[str] owner: Owner of the table.
:param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below.
:param pulumi.Input[int] retention: Retention time for this table.
:param pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below.
:param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty.
:param pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']] target_table: Configuration block of a target table for resource linking. See `target_table` below.
:param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null.
:param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null.
"""
...
@overload
def __init__(__self__,
resource_name: str,
args: CatalogTableArgs,
opts: Optional[pulumi.ResourceOptions] = None):
"""
Provides a Glue Catalog Table Resource. You can refer to the [Glue Developer Guide](http://docs.aws.amazon.com/glue/latest/dg/populate-data-catalog.html) for a full explanation of the Glue Data Catalog functionality.
## Example Usage
### Basic Table
```python
import pulumi
import pulumi_aws as aws
aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable",
database_name="MyCatalogDatabase",
name="MyCatalogTable")
```
### Parquet Table for Athena
```python
import pulumi
import pulumi_aws as aws
aws_glue_catalog_table = aws.glue.CatalogTable("awsGlueCatalogTable",
database_name="MyCatalogDatabase",
name="MyCatalogTable",
parameters={
"EXTERNAL": "TRUE",
"parquet.compression": "SNAPPY",
},
storage_descriptor=aws.glue.CatalogTableStorageDescriptorArgs(
columns=[
aws.glue.CatalogTableStorageDescriptorColumnArgs(
name="my_string",
type="string",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
name="my_double",
type="double",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
comment="",
name="my_date",
type="date",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
comment="",
name="my_bigint",
type="bigint",
),
aws.glue.CatalogTableStorageDescriptorColumnArgs(
comment="",
name="my_struct",
type="struct<my_nested_string:string>",
),
],
input_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetInputFormat",
location="s3://my-bucket/event-streams/my-stream",
output_format="org.apache.hadoop.hive.ql.io.parquet.MapredParquetOutputFormat",
ser_de_info=aws.glue.CatalogTableStorageDescriptorSerDeInfoArgs(
name="my-stream",
parameters={
"serialization.format": "1",
},
serialization_library="org.apache.hadoop.hive.ql.io.parquet.serde.ParquetHiveSerDe",
),
),
table_type="EXTERNAL_TABLE")
```
## Import
Glue Tables can be imported with their catalog ID (usually AWS account ID), database name, and table name, e.g.,
```sh
$ pulumi import aws:glue/catalogTable:CatalogTable MyTable 123456789012:MyDatabase:MyTable
```
:param str resource_name: The name of the resource.
:param CatalogTableArgs args: The arguments to use to populate this resource's properties.
:param pulumi.ResourceOptions opts: Options for the resource.
"""
...
def __init__(__self__, resource_name: str, *args, **kwargs):
resource_args, opts = _utilities.get_resource_args_opts(CatalogTableArgs, pulumi.ResourceOptions, *args, **kwargs)
if resource_args is not None:
__self__._internal_init(resource_name, opts, **resource_args.__dict__)
else:
__self__._internal_init(resource_name, *args, **kwargs)
def _internal_init(__self__,
resource_name: str,
opts: Optional[pulumi.ResourceOptions] = None,
catalog_id: Optional[pulumi.Input[str]] = None,
database_name: Optional[pulumi.Input[str]] = None,
description: Optional[pulumi.Input[str]] = None,
name: Optional[pulumi.Input[str]] = None,
owner: Optional[pulumi.Input[str]] = None,
parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None,
partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]]] = None,
partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]]] = None,
retention: Optional[pulumi.Input[int]] = None,
storage_descriptor: Optional[pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']]] = None,
table_type: Optional[pulumi.Input[str]] = None,
target_table: Optional[pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']]] = None,
view_expanded_text: Optional[pulumi.Input[str]] = None,
view_original_text: Optional[pulumi.Input[str]] = None,
__props__=None):
if opts is None:
opts = pulumi.ResourceOptions()
if not isinstance(opts, pulumi.ResourceOptions):
raise TypeError('Expected resource options to be a ResourceOptions instance')
if opts.version is None:
opts.version = _utilities.get_version()
if opts.id is None:
if __props__ is not None:
raise TypeError('__props__ is only valid when passed in combination with a valid opts.id to get an existing resource')
__props__ = CatalogTableArgs.__new__(CatalogTableArgs)
__props__.__dict__["catalog_id"] = catalog_id
if database_name is None and not opts.urn:
raise TypeError("Missing required property 'database_name'")
__props__.__dict__["database_name"] = database_name
__props__.__dict__["description"] = description
__props__.__dict__["name"] = name
__props__.__dict__["owner"] = owner
__props__.__dict__["parameters"] = parameters
__props__.__dict__["partition_indices"] = partition_indices
__props__.__dict__["partition_keys"] = partition_keys
__props__.__dict__["retention"] = retention
__props__.__dict__["storage_descriptor"] = storage_descriptor
__props__.__dict__["table_type"] = table_type
__props__.__dict__["target_table"] = target_table
__props__.__dict__["view_expanded_text"] = view_expanded_text
__props__.__dict__["view_original_text"] = view_original_text
__props__.__dict__["arn"] = None
super(CatalogTable, __self__).__init__(
'aws:glue/catalogTable:CatalogTable',
resource_name,
__props__,
opts)
@staticmethod
def get(resource_name: str,
id: pulumi.Input[str],
opts: Optional[pulumi.ResourceOptions] = None,
arn: Optional[pulumi.Input[str]] = None,
catalog_id: Optional[pulumi.Input[str]] = None,
database_name: Optional[pulumi.Input[str]] = None,
description: Optional[pulumi.Input[str]] = None,
name: Optional[pulumi.Input[str]] = None,
owner: Optional[pulumi.Input[str]] = None,
parameters: Optional[pulumi.Input[Mapping[str, pulumi.Input[str]]]] = None,
partition_indices: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]]] = None,
partition_keys: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]]] = None,
retention: Optional[pulumi.Input[int]] = None,
storage_descriptor: Optional[pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']]] = None,
table_type: Optional[pulumi.Input[str]] = None,
target_table: Optional[pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']]] = None,
view_expanded_text: Optional[pulumi.Input[str]] = None,
view_original_text: Optional[pulumi.Input[str]] = None) -> 'CatalogTable':
"""
Get an existing CatalogTable resource's state with the given name, id, and optional extra
properties used to qualify the lookup.
:param str resource_name: The unique name of the resulting resource.
:param pulumi.Input[str] id: The unique provider ID of the resource to lookup.
:param pulumi.ResourceOptions opts: Options for the resource.
:param pulumi.Input[str] arn: The ARN of the Glue Table.
:param pulumi.Input[str] catalog_id: ID of the Data Catalog in which the table resides.
:param pulumi.Input[str] database_name: Name of the catalog database that contains the target table.
:param pulumi.Input[str] description: Description of the table.
:param pulumi.Input[str] name: Name of the target table.
:param pulumi.Input[str] owner: Owner of the table.
:param pulumi.Input[Mapping[str, pulumi.Input[str]]] parameters: Map of initialization parameters for the SerDe, in key-value form.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionIndexArgs']]]] partition_indices: Configuration block for a maximum of 3 partition indexes. See `partition_index` below.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['CatalogTablePartitionKeyArgs']]]] partition_keys: Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below.
:param pulumi.Input[int] retention: Retention time for this table.
:param pulumi.Input[pulumi.InputType['CatalogTableStorageDescriptorArgs']] storage_descriptor: Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below.
:param pulumi.Input[str] table_type: Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty.
:param pulumi.Input[pulumi.InputType['CatalogTableTargetTableArgs']] target_table: Configuration block of a target table for resource linking. See `target_table` below.
:param pulumi.Input[str] view_expanded_text: If the table is a view, the expanded text of the view; otherwise null.
:param pulumi.Input[str] view_original_text: If the table is a view, the original text of the view; otherwise null.
"""
opts = pulumi.ResourceOptions.merge(opts, pulumi.ResourceOptions(id=id))
__props__ = _CatalogTableState.__new__(_CatalogTableState)
__props__.__dict__["arn"] = arn
__props__.__dict__["catalog_id"] = catalog_id
__props__.__dict__["database_name"] = database_name
__props__.__dict__["description"] = description
__props__.__dict__["name"] = name
__props__.__dict__["owner"] = owner
__props__.__dict__["parameters"] = parameters
__props__.__dict__["partition_indices"] = partition_indices
__props__.__dict__["partition_keys"] = partition_keys
__props__.__dict__["retention"] = retention
__props__.__dict__["storage_descriptor"] = storage_descriptor
__props__.__dict__["table_type"] = table_type
__props__.__dict__["target_table"] = target_table
__props__.__dict__["view_expanded_text"] = view_expanded_text
__props__.__dict__["view_original_text"] = view_original_text
return CatalogTable(resource_name, opts=opts, __props__=__props__)
@property
@pulumi.getter
def arn(self) -> pulumi.Output[str]:
"""
The ARN of the Glue Table.
"""
return pulumi.get(self, "arn")
@property
@pulumi.getter(name="catalogId")
def catalog_id(self) -> pulumi.Output[str]:
"""
ID of the Data Catalog in which the table resides.
"""
return pulumi.get(self, "catalog_id")
@property
@pulumi.getter(name="databaseName")
def database_name(self) -> pulumi.Output[str]:
"""
Name of the catalog database that contains the target table.
"""
return pulumi.get(self, "database_name")
@property
@pulumi.getter
def description(self) -> pulumi.Output[Optional[str]]:
"""
Description of the table.
"""
return pulumi.get(self, "description")
@property
@pulumi.getter
def name(self) -> pulumi.Output[str]:
"""
Name of the target table.
"""
return pulumi.get(self, "name")
@property
@pulumi.getter
def owner(self) -> pulumi.Output[Optional[str]]:
"""
Owner of the table.
"""
return pulumi.get(self, "owner")
@property
@pulumi.getter
def parameters(self) -> pulumi.Output[Optional[Mapping[str, str]]]:
"""
Map of initialization parameters for the SerDe, in key-value form.
"""
return pulumi.get(self, "parameters")
@property
@pulumi.getter(name="partitionIndices")
def partition_indices(self) -> pulumi.Output[Sequence['outputs.CatalogTablePartitionIndex']]:
"""
Configuration block for a maximum of 3 partition indexes. See `partition_index` below.
"""
return pulumi.get(self, "partition_indices")
@property
@pulumi.getter(name="partitionKeys")
def partition_keys(self) -> pulumi.Output[Optional[Sequence['outputs.CatalogTablePartitionKey']]]:
"""
Configuration block of columns by which the table is partitioned. Only primitive types are supported as partition keys. See `partition_keys` below.
"""
return pulumi.get(self, "partition_keys")
@property
@pulumi.getter
def retention(self) -> pulumi.Output[Optional[int]]:
"""
Retention time for this table.
"""
return pulumi.get(self, "retention")
@property
@pulumi.getter(name="storageDescriptor")
def storage_descriptor(self) -> pulumi.Output[Optional['outputs.CatalogTableStorageDescriptor']]:
"""
Configuration block for information about the physical storage of this table. For more information, refer to the [Glue Developer Guide](https://docs.aws.amazon.com/glue/latest/dg/aws-glue-api-catalog-tables.html#aws-glue-api-catalog-tables-StorageDescriptor). See `storage_descriptor` below.
"""
return pulumi.get(self, "storage_descriptor")
@property
@pulumi.getter(name="tableType")
def table_type(self) -> pulumi.Output[Optional[str]]:
"""
Type of this table (EXTERNAL_TABLE, VIRTUAL_VIEW, etc.). While optional, some Athena DDL queries such as `ALTER TABLE` and `SHOW CREATE TABLE` will fail if this argument is empty.
"""
return pulumi.get(self, "table_type")
@property
@pulumi.getter(name="targetTable")
def target_table(self) -> pulumi.Output[Optional['outputs.CatalogTableTargetTable']]:
"""
Configuration block of a target table for resource linking. See `target_table` below.
"""
return pulumi.get(self, "target_table")
@property
@pulumi.getter(name="viewExpandedText")
def view_expanded_text(self) -> pulumi.Output[Optional[str]]:
"""
If the table is a view, the expanded text of the view; otherwise null.
"""
return pulumi.get(self, "view_expanded_text")
@property
@pulumi.getter(name="viewOriginalText")
def view_original_text(self) -> pulumi.Output[Optional[str]]:
"""
If the table is a view, the original text of the view; otherwise null.
"""
return pulumi.get(self, "view_original_text")
| 48.792291 | 394 | 0.652221 | 5,084 | 45,572 | 5.662274 | 0.055468 | 0.088269 | 0.083823 | 0.055789 | 0.931011 | 0.920798 | 0.910237 | 0.906937 | 0.900024 | 0.88533 | 0 | 0.001043 | 0.242693 | 45,572 | 933 | 395 | 48.844587 | 0.833073 | 0.388001 | 0 | 0.848861 | 1 | 0 | 0.133497 | 0.048811 | 0 | 0 | 0 | 0 | 0 | 1 | 0.165631 | false | 0.00207 | 0.014493 | 0 | 0.279503 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
1d69010b3ae613fd90189fb30cd2f23e4de6f987 | 210,116 | py | Python | PictureGuard-master/guard.py | Zusyaku/Termux-And-Lali-Linux-V2 | b1a1b0841d22d4bf2cc7932b72716d55f070871e | [
"Apache-2.0"
] | 2 | 2021-11-17T03:35:03.000Z | 2021-12-08T06:00:31.000Z | PictureGuard-master/guard.py | Zusyaku/Termux-And-Lali-Linux-V2 | b1a1b0841d22d4bf2cc7932b72716d55f070871e | [
"Apache-2.0"
] | null | null | null | PictureGuard-master/guard.py | Zusyaku/Termux-And-Lali-Linux-V2 | b1a1b0841d22d4bf2cc7932b72716d55f070871e | [
"Apache-2.0"
] | 2 | 2021-11-05T18:07:48.000Z | 2022-02-24T21:25:07.000Z |
# coding=utf-8
# Record Teroooosss
d=['yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy', 'yyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyyy'];exec("".join([chr(len(i)) for i in d]))
| 26,264.5 | 210,075 | 0.954911 | 2,375 | 210,116 | 84.480842 | 0.037053 | 0.001874 | 0.00324 | 0.004406 | 0.010536 | 0.005153 | 0 | 0 | 0 | 0 | 0 | 0.000005 | 0.011299 | 210,116 | 8 | 210,076 | 26,264.5 | 0.965818 | 0.000143 | 0 | 0 | 0 | 0 | 0.954827 | 0.954685 | 0 | 1 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | null | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
1d9a730a955568d058fd6b2eaf350fd0a752ae59 | 152 | py | Python | Desktop10.4.1/python/gdalnumeric.py | Esri/raster2gpkg | d10ebb3038786ecddf41072ba5b2c49baad97c5a | [
"Apache-2.0"
] | 13 | 2015-11-18T18:26:34.000Z | 2021-05-09T13:59:46.000Z | Desktop10.4.1/python/gdalnumeric.py | Esri/raster2gpkg | d10ebb3038786ecddf41072ba5b2c49baad97c5a | [
"Apache-2.0"
] | 4 | 2015-12-26T03:16:25.000Z | 2016-08-23T17:18:11.000Z | Desktop10.4.1/python/gdalnumeric.py | Esri/raster2gpkg | d10ebb3038786ecddf41072ba5b2c49baad97c5a | [
"Apache-2.0"
] | 5 | 2015-10-22T13:28:53.000Z | 2020-12-12T13:07:52.000Z | # import osgeo.gdal_array as a convenience
from osgeo.gdal import deprecation_warn
deprecation_warn('gdalnumeric')
from osgeo.gdal_array import *
| 25.333333 | 43 | 0.802632 | 21 | 152 | 5.619048 | 0.52381 | 0.228814 | 0.237288 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.138158 | 152 | 5 | 44 | 30.4 | 0.900763 | 0.263158 | 0 | 0 | 0 | 0 | 0.104762 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 0.666667 | 0 | 0.666667 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
d5215fce3b145a62c0400dabcafb5bc8d994be89 | 2,097 | py | Python | test/bitbakelayers_test_layers_test.py | shift-left-test/meta-shift | effce9bea894f990703cc047157e3f30d53d9365 | [
"MIT"
] | 2 | 2022-01-19T02:39:43.000Z | 2022-02-07T01:58:17.000Z | test/bitbakelayers_test_layers_test.py | shift-left-test/meta-shift | effce9bea894f990703cc047157e3f30d53d9365 | [
"MIT"
] | null | null | null | test/bitbakelayers_test_layers_test.py | shift-left-test/meta-shift | effce9bea894f990703cc047157e3f30d53d9365 | [
"MIT"
] | null | null | null | #-*- coding: utf-8 -*-
#!/usr/bin/python3
"""
Copyright (c) 2020 LG Electronics Inc.
SPDX-License-Identifier: MIT
"""
import pytest
import re
def test_mutually_exclusive_options(release_build):
assert not release_build.shell.execute("bitbake-layers test-layers --show --add").stderr.empty()
assert not release_build.shell.execute("bitbake-layers test-layers --show --remove").stderr.empty()
assert not release_build.shell.execute("bitbake-layers test-layers --add --remove").stderr.empty()
def test_default_action(release_build):
o = release_build.shell.execute("bitbake-layers test-layers")
assert o.stdout.contains("meta-sample-test")
def test_show_layers(release_build):
o = release_build.shell.execute("bitbake-layers test-layers --show")
assert o.stdout.contains("meta-sample-test")
def test_show_layers_with_depth(release_build):
o = release_build.shell.execute("bitbake-layers test-layers --show --depth 0")
assert not o.stdout.contains("meta-sample-test")
def test_show_with_basepath(release_build):
o = release_build.shell.execute("bitbake-layers test-layers --show --basepath /dev/null")
assert not o.stdout.contains("meta-sample-test")
def test_add_layers(release_build):
assert not release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test")
release_build.shell.execute("bitbake-layers test-layers --add")
assert release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test")
release_build.shell.execute("bitbake-layers test-layers --remove")
assert not release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test")
def test_remove_layers(release_build):
release_build.shell.execute("bitbake-layers test-layers --add")
assert release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test")
release_build.shell.execute("bitbake-layers test-layers --remove")
assert not release_build.shell.execute("bitbake-layers show-layers").stdout.contains("meta-sample-test")
| 40.326923 | 108 | 0.75918 | 291 | 2,097 | 5.329897 | 0.171821 | 0.17795 | 0.175371 | 0.247582 | 0.839458 | 0.839458 | 0.839458 | 0.834945 | 0.834945 | 0.830432 | 0 | 0.00371 | 0.100143 | 2,097 | 51 | 109 | 41.117647 | 0.81823 | 0.050548 | 0 | 0.448276 | 0 | 0 | 0.346115 | 0 | 0 | 0 | 0 | 0 | 0.413793 | 1 | 0.241379 | false | 0 | 0.068966 | 0 | 0.310345 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 9 |
d535e5fe2de1b1c18f91f62e6c750545ff88c867 | 213 | py | Python | project/module_name/utils/base_util.py | tys-hiroshi/study_programming_py | 562f93043ebf6ebb1b76b050aa85609208cc4caf | [
"MIT"
] | null | null | null | project/module_name/utils/base_util.py | tys-hiroshi/study_programming_py | 562f93043ebf6ebb1b76b050aa85609208cc4caf | [
"MIT"
] | null | null | null | project/module_name/utils/base_util.py | tys-hiroshi/study_programming_py | 562f93043ebf6ebb1b76b050aa85609208cc4caf | [
"MIT"
] | null | null | null | import base64
class BaseUtil:
@staticmethod
def encode(string: str):
return base64.b64encode(string.encode())
@staticmethod
def decode(string: str):
return base64.b64decode(string) | 23.666667 | 48 | 0.680751 | 23 | 213 | 6.304348 | 0.565217 | 0.206897 | 0.206897 | 0.289655 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.060606 | 0.225352 | 213 | 9 | 49 | 23.666667 | 0.818182 | 0 | 0 | 0.25 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.25 | false | 0 | 0.125 | 0.25 | 0.75 | 0 | 1 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 8 |
d556f375de1dff86fff69105147b7b7aa3294b1b | 4,275 | py | Python | filemapper/check/checkanimeextension.py | AsiganTheSunk/python-multimedia-filemapper | 5daa07c51f3e85df48a0c336633ac150687fe24c | [
"Xnet",
"X11"
] | null | null | null | filemapper/check/checkanimeextension.py | AsiganTheSunk/python-multimedia-filemapper | 5daa07c51f3e85df48a0c336633ac150687fe24c | [
"Xnet",
"X11"
] | null | null | null | filemapper/check/checkanimeextension.py | AsiganTheSunk/python-multimedia-filemapper | 5daa07c51f3e85df48a0c336633ac150687fe24c | [
"Xnet",
"X11"
] | null | null | null | import re
class CheckAnimeExtension():
def __init__(self):
self.name = 'CheckAnimeExtension'
return
# TODO: Ver que hacer con esta funcion, que hace practicamente lo
# mismo que la normal
def check_anime_show2(self, stream, debug=False):
'''
This function checks if the stream it's a anime file returning True,
otherwise False
:param stream: It represents the input string you're parsing
:param debug: It represents the debug status of the function,
default it's False
:return: BOOLEAN
'''
status = False
_header_pattern = ['(^\[(\w+(\s|\-|.?))+\])']
_tail_pattern = ['(\-)(.?)\d{1,3}|(x|E(pisode)?)(\s|\.|\-)?\d{1,3}']
try:
re.search(_header_pattern[0], stream, re.IGNORECASE).group(0)
re.search(_tail_pattern[0], stream, re.IGNORECASE).group(0)
except AttributeError:
return status
else:
status = True
if debug:
print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name,
stream=stream, status=str(status))
return status
def check_anime_show(self, stream, debug=False):
'''
This function checks if the stream it's a anime show returning True,
otherwise False
:param stream: It represents the input string you're parsing
:param debug: It represents the debug status of the function,
default it's False
:return: BOOLEAN
'''
status = False
try:
re.search('\[(\w+-?)*\](\s\w+)*\s(.?\s)?(\d{0,3}|E\w{0,6}.?\d{0,3})\s\(?\[?(\d{3,4}p|.*)\)?\]?(.mp4|.mkv)',
stream, re.IGNORECASE).group(0)
except AttributeError:
try:
re.search('^\[(\w+(\s|\-|.?))+\]', stream, re.IGNORECASE).group(0)
re.search('\-(.?)\d{1,3}|(x|E(pisode)?)(\s|\.|\-)?\d{1,3}', stream, re.IGNORECASE).group(0)
re.search('\.mp4|\.mkv', stream, re.IGNORECASE).group(0)
except AttributeError:
return status
else:
status = True
if debug:
print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name,
stream=stream, status=str(status))
return status
else:
status = True
if debug:
print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name,
stream=stream, status=str(status))
return status
def check_anime_directory(self, stream, debug=False):
'''
This function checks if the stream it's anime directory returning True,
otherwise False
:param stream: It represents the input string you're parsing
:param debug: It represents the debug status of the function,
default it's False
:return: BOOLEAN
'''
status = False
_header_pattern = ['^\[(\w+(\s|\-|.?))+\]']
_tail_pattern = ['\-(.?)\d{1,3}|(x|E(pisode)?)(\s|\.|\-)?\d{1,3}']
try:
# regex.search('\[(\w+-?)*\](\s\w+)*\s(.?\s)?(\d{0,3}|E\w{0,6}.?\d{0,3})\s\(?\[?(\d{3,4}p|.*)\)?\]?', path, regex.IGNORECASE).group(0)
# regex.search('\[(\w+!?)\]|\[(\w+\-?)*\](\s\w+)*\s(.?\s)?(\d{0,3}|E\w{0,6}.?\d{0,3})\s\(?\[?(\d{3,4}p|.*)\)?\]?', path, regex.IGNORECASE).group(0)
re.search(_header_pattern[0], stream, re.IGNORECASE).group(0)
re.search(_tail_pattern[0], stream, re.IGNORECASE).group(0)
except AttributeError as e:
return status
else:
status = True
if debug:
print('{extension_engine}: {stream} :: status:{status}').format(extension_engine=self.name,
stream=stream, status=str(status))
return status
| 46.467391 | 159 | 0.492865 | 481 | 4,275 | 4.309771 | 0.172557 | 0.072359 | 0.077183 | 0.08876 | 0.895803 | 0.88712 | 0.88712 | 0.856247 | 0.856247 | 0.829233 | 0 | 0.018861 | 0.34269 | 4,275 | 91 | 160 | 46.978022 | 0.718861 | 0.265263 | 0 | 0.694915 | 0 | 0.067797 | 0.175373 | 0.101425 | 0 | 0 | 0 | 0.010989 | 0 | 1 | 0.067797 | false | 0 | 0.016949 | 0 | 0.237288 | 0.067797 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
d56f96ae0ee5e2eab745eb7e24bbe43f02a0da07 | 49 | py | Python | backend/app/views/example_scenario/__init__.py | Edinburgh-Genome-Foundry/CAB | b8abbae20038012cd2f44af26be157fd37ae83c2 | [
"MIT"
] | 19 | 2018-06-22T11:42:28.000Z | 2022-02-03T17:04:48.000Z | backend/app/views/example_scenario/__init__.py | Edinburgh-Genome-Foundry/CUBA | d57565951ead619ef9263e8b356b451001fb910f | [
"MIT"
] | 9 | 2020-06-05T17:54:54.000Z | 2022-02-12T12:03:19.000Z | backend/app/views/example_scenario/__init__.py | Edinburgh-Genome-Foundry/CUBA | d57565951ead619ef9263e8b356b451001fb910f | [
"MIT"
] | 3 | 2018-10-18T13:08:50.000Z | 2020-08-17T14:09:46.000Z | from .ExampleScenario import ExampleScenarioView
| 24.5 | 48 | 0.897959 | 4 | 49 | 11 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.081633 | 49 | 1 | 49 | 49 | 0.977778 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 1 | 1 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
d58f20f99c7199bc634e5537479230d65828b4fa | 13,270 | py | Python | kolibri/logger/test/test_api.py | dylanmccall/kolibri | 34a0fac0920106524092937b8a44ef07701e9fd6 | [
"MIT"
] | 1 | 2021-11-09T11:30:12.000Z | 2021-11-09T11:30:12.000Z | kolibri/logger/test/test_api.py | dylanmccall/kolibri | 34a0fac0920106524092937b8a44ef07701e9fd6 | [
"MIT"
] | 1 | 2016-09-13T19:02:03.000Z | 2016-09-21T17:21:07.000Z | kolibri/logger/test/test_api.py | dylanmccall/kolibri | 34a0fac0920106524092937b8a44ef07701e9fd6 | [
"MIT"
] | 1 | 2020-05-21T18:17:55.000Z | 2020-05-21T18:17:55.000Z | """
Tests that ensure the correct items are returned from api calls.
Also tests whether the users with permissions can create logs.
"""
import csv
import datetime
import uuid
from django.core.urlresolvers import reverse
from rest_framework import status
from rest_framework.test import APITestCase
from kolibri.auth.models import DeviceOwner
from .factory_logger import (
FacilityFactory, FacilityUserFactory,
ContentSessionLogFactory, ContentSummaryLogFactory,
ContentRatingLogFactory, UserSessionLogFactory,
DUMMY_PASSWORD
)
from ..models import ContentSessionLog, ContentSummaryLog, ContentRatingLog, UserSessionLog
from ..serializers import ContentSessionLogSerializer, ContentSummaryLogSerializer, ContentRatingLogSerializer
class ContentSessionLogAPITestCase(APITestCase):
def setUp(self):
# create DeviceOwner to pass the setup_wizard middleware check
DeviceOwner.objects.create(username='test-device-owner', password=123)
self.facility = FacilityFactory.create()
self.admin = FacilityUserFactory.create(facility=self.facility)
self.user = FacilityUserFactory.create(facility=self.facility)
self.interaction_logs = [ContentSessionLogFactory.create(user=self.user) for _ in range(3)]
self.facility.add_admin(self.admin)
self.payload = {'user': self.user.pk,
'content_id': uuid.uuid4().hex,
'channel_id': uuid.uuid4().hex,
'kind': 'video',
'start_timestamp': str(datetime.datetime.now())}
def test_contentsessionlog_list(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.get(reverse('contentsessionlog-list'))
expected_count = ContentSessionLog.objects.count()
self.assertEqual(len(response.data), expected_count)
def test_contentsessionlog_detail(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
log_id = self.interaction_logs[0].id
response = self.client.get(reverse('contentsessionlog-detail', kwargs={"pk": log_id}))
log = ContentSessionLog.objects.get(pk=log_id)
interaction_serializer = ContentSessionLogSerializer(log)
self.assertEqual(response.data['content_id'], interaction_serializer.data['content_id'])
def test_admin_can_create_contentsessionlog(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_learner_can_create_contentsessionlog(self):
self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_anonymous_user_cannot_create_contentsessionlog_for_learner(self):
response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN)
def test_anonymous_user_can_create_contentsessionlog(self):
del self.payload['user']
response = self.client.post(reverse('contentsessionlog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
class ContentSummaryLogAPITestCase(APITestCase):
def setUp(self):
# create DeviceOwner to pass the setup_wizard middleware check
DeviceOwner.objects.create(username='test-device-owner', password=123)
self.facility = FacilityFactory.create()
self.admin = FacilityUserFactory.create(facility=self.facility)
self.user = FacilityUserFactory.create(facility=self.facility)
self.summary_logs = [ContentSummaryLogFactory.create(user=self.user) for _ in range(3)]
self.facility.add_admin(self.admin)
self.payload = {'user': self.user.pk,
'content_id': uuid.uuid4().hex,
'channel_id': uuid.uuid4().hex,
'kind': "video",
'start_timestamp': str(datetime.datetime.now())}
def test_summarylog_list(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.get(reverse('contentsummarylog-list'))
expected_count = ContentSummaryLog.objects.count()
self.assertEqual(len(response.data), expected_count)
def test_summarylog_detail(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
log_id = self.summary_logs[0].id
response = self.client.get(reverse('contentsummarylog-detail', kwargs={"pk": log_id}))
log = ContentSummaryLog.objects.get(pk=log_id)
summary_serializer = ContentSummaryLogSerializer(log)
self.assertEqual(response.data['content_id'], summary_serializer.data['content_id'])
def test_admin_can_create_summarylog(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('contentsummarylog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_learner_can_create_summarylog(self):
self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('contentsummarylog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_anonymous_user_cannot_create_summarylog_for_learner(self):
response = self.client.post(reverse('contentsummarylog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN)
class ContentRatingLogAPITestCase(APITestCase):
def setUp(self):
# create DeviceOwner to pass the setup_wizard middleware check
DeviceOwner.objects.create(username='test-device-owner', password=123)
self.facility = FacilityFactory.create()
self.admin = FacilityUserFactory.create(facility=self.facility)
self.user = FacilityUserFactory.create(facility=self.facility)
self.rating_logs = [ContentRatingLogFactory.create(user=self.user) for _ in range(3)]
self.facility.add_admin(self.admin)
self.payload = {'user': self.user.pk,
'content_id': uuid.uuid4().hex,
'channel_id': uuid.uuid4().hex}
def test_ratinglog_list(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.get(reverse('contentratinglog-list'))
expected_count = ContentRatingLog.objects.count()
self.assertEqual(len(response.data), expected_count)
def test_ratinglog_detail(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
log_id = self.rating_logs[0].id
response = self.client.get(reverse('contentratinglog-detail', kwargs={"pk": log_id}))
log = ContentRatingLog.objects.get(pk=log_id)
rating_serializer = ContentRatingLogSerializer(log)
self.assertEqual(response.data['content_id'], rating_serializer.data['content_id'])
def test_admin_can_create_ratinglog(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_learner_can_create_ratinglog(self):
self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_anonymous_user_cannot_create_ratinglog_for_learner(self):
response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN)
def test_anonymous_user_can_create_ratinglog(self):
del self.payload['user']
response = self.client.post(reverse('contentratinglog-list'), data=self.payload, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
class UserSessionLogAPITestCase(APITestCase):
def setUp(self):
# create DeviceOwner to pass the setup_wizard middleware check
DeviceOwner.objects.create(username='test-device-owner', password=123)
self.facility = FacilityFactory.create()
self.admin = FacilityUserFactory.create(facility=self.facility)
self.user = FacilityUserFactory.create(facility=self.facility)
self.session_logs = [UserSessionLogFactory.create(user=self.user) for _ in range(3)]
self.facility.add_admin(self.admin)
def test_sessionlog_list(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.get(reverse('usersessionlog-list'))
expected_count = UserSessionLog.objects.count()
self.assertEqual(len(response.data), expected_count)
def test_sessionlog_detail(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
log_id = self.session_logs[0].id
response = self.client.get(reverse('usersessionlog-detail', kwargs={"pk": log_id}))
log = UserSessionLog.objects.get(pk=log_id)
self.assertEqual(response.data['user'], log.user.id)
def test_admin_can_create_sessionlog(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('usersessionlog-list'), data={'user': self.user.pk}, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_learner_can_create_sessionlog(self):
self.client.login(username=self.user.username, password=DUMMY_PASSWORD, facility=self.facility)
response = self.client.post(reverse('usersessionlog-list'), data={'user': self.user.pk}, format='json')
self.assertEqual(response.status_code, status.HTTP_201_CREATED)
def test_anonymous_user_cannot_create_sessionlog_for_learner(self):
response = self.client.post(reverse('usersessionlog-list'), data={'user': self.user.pk}, format='json')
self.assertEqual(response.status_code, status.HTTP_403_FORBIDDEN)
class ContentSummaryLogCSVExportTestCase(APITestCase):
def setUp(self):
# create DeviceOwner to pass the setup_wizard middleware check
DeviceOwner.objects.create(username='test-device-owner', password=123)
self.facility = FacilityFactory.create()
self.admin = FacilityUserFactory.create(facility=self.facility)
self.user = FacilityUserFactory.create(facility=self.facility)
self.summary_logs = [ContentSummaryLogFactory.create(user=self.user) for _ in range(3)]
self.facility.add_admin(self.admin)
def test_csv_download(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
expected_count = ContentSummaryLog.objects.count()
response = self.client.get(reverse('contentsummarylogcsv-list'))
results = list(csv.reader(row for row in response.content.decode("utf-8").split("\n") if row))
for row in results[1:]:
self.assertEqual(len(results[0]), len(row))
self.assertEqual(len(results[1:]), expected_count)
class ContentSessionLogCSVExportTestCase(APITestCase):
def setUp(self):
# create DeviceOwner to pass the setup_wizard middleware check
DeviceOwner.objects.create(username='test-device-owner', password=123)
self.facility = FacilityFactory.create()
self.admin = FacilityUserFactory.create(facility=self.facility)
self.user = FacilityUserFactory.create(facility=self.facility)
self.interaction_logs = [ContentSessionLogFactory.create(user=self.user) for _ in range(3)]
self.facility.add_admin(self.admin)
def test_csv_download(self):
self.client.login(username=self.admin.username, password=DUMMY_PASSWORD, facility=self.facility)
expected_count = ContentSessionLog.objects.count()
response = self.client.get(reverse('contentsessionlogcsv-list'))
results = list(csv.reader(row for row in response.content.decode("utf-8").split("\n") if row))
for row in results[1:]:
self.assertEqual(len(results[0]), len(row))
self.assertEqual(len(results[1:]), expected_count)
| 53.508065 | 111 | 0.726601 | 1,528 | 13,270 | 6.162304 | 0.093586 | 0.053526 | 0.063721 | 0.036321 | 0.846007 | 0.828802 | 0.804376 | 0.783454 | 0.762638 | 0.737893 | 0 | 0.007559 | 0.162622 | 13,270 | 247 | 112 | 53.724696 | 0.839813 | 0.037227 | 0 | 0.60733 | 0 | 0 | 0.070908 | 0.034866 | 0 | 0 | 0 | 0 | 0.136126 | 1 | 0.157068 | false | 0.13089 | 0.052356 | 0 | 0.240838 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 7 |
633b5deaa672cde7866c52063d2302c367c57a90 | 11,337 | py | Python | imcsdk/mometa/lsboot/LsbootHttp.py | ecoen66/imcsdk | b10eaa926a5ee57cea7182ae0adc8dd1c818b0ab | [
"Apache-2.0"
] | 31 | 2016-06-14T07:23:59.000Z | 2021-09-12T17:17:26.000Z | imcsdk/mometa/lsboot/LsbootHttp.py | sthagen/imcsdk | 1831eaecb5960ca03a8624b1579521749762b932 | [
"Apache-2.0"
] | 109 | 2016-05-25T03:56:56.000Z | 2021-10-18T02:58:12.000Z | imcsdk/mometa/lsboot/LsbootHttp.py | sthagen/imcsdk | 1831eaecb5960ca03a8624b1579521749762b932 | [
"Apache-2.0"
] | 67 | 2016-05-17T05:53:56.000Z | 2022-03-24T15:52:53.000Z | """This module contains the general information for LsbootHttp ManagedObject."""
from ...imcmo import ManagedObject
from ...imccoremeta import MoPropertyMeta, MoMeta
from ...imcmeta import VersionMeta
class LsbootHttpConsts:
IP_CONFIG_TYPE_ = ""
IP_CONFIG_TYPE_DHCP = "DHCP"
IP_CONFIG_TYPE_STATIC = "Static"
IPTYPE_ = ""
IPTYPE_IPV4 = "IPv4"
IPTYPE_IPV6 = "IPv6"
MAC_ADDRESS_ = ""
NETMASK_OR_IPV6_PREFIX_ = ""
STATE_DISABLED = "Disabled"
STATE_ENABLED = "Enabled"
SUBTYPE_HTTP = "HTTP"
TYPE_HTTP = "HTTP"
class LsbootHttp(ManagedObject):
"""This is LsbootHttp class."""
consts = LsbootHttpConsts()
naming_props = set(['name'])
mo_meta = {
"classic": MoMeta("LsbootHttp", "lsbootHttp", "http-[name]", VersionMeta.Version413a, "InputOutput", 0x7ffff, [], ["admin", "read-only", "user"], ['lsbootDevPrecision'], [], [None]),
"modular": MoMeta("LsbootHttp", "lsbootHttp", "http-[name]", VersionMeta.Version413a, "InputOutput", 0x7ffff, [], ["admin", "read-only", "user"], ['lsbootDevPrecision'], [], [None])
}
prop_meta = {
"classic": {
"dn": MoPropertyMeta("dn", "dn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2, 0, 255, None, [], []),
"dnsserver": MoPropertyMeta("dnsserver", "dnsserver", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []),
"gateway": MoPropertyMeta("gateway", "gateway", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []),
"ip_config_type": MoPropertyMeta("ip_config_type", "ipConfigType", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10, None, None, None, ["", "DHCP", "Static"], []),
"ipaddress": MoPropertyMeta("ipaddress", "ipaddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []),
"iptype": MoPropertyMeta("iptype", "iptype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40, None, None, None, ["", "IPv4", "IPv6"], []),
"mac_address": MoPropertyMeta("mac_address", "macAddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x80, None, None, r"""(([0-9a-fA-F][0-9a-fA-F]:){5}([0-9a-fA-F][0-9a-fA-F]))|0""", [""], []),
"name": MoPropertyMeta("name", "name", "string", VersionMeta.Version413a, MoPropertyMeta.NAMING, 0x100, None, None, r"""(([a-zA-Z0-9]{1})|([a-zA-Z0-9]{1}[a-zA-Z0-9_\-]{0,28}[a-zA-Z0-9]{1})|([a-zA-Z0-9]{2}))""", [], []),
"netmask_or_i_pv6_prefix": MoPropertyMeta("netmask_or_i_pv6_prefix", "netmaskOrIPv6Prefix", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x200, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], ["1-128"]),
"order": MoPropertyMeta("order", "order", "uint", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x400, None, None, None, [], ["1-255"]),
"port": MoPropertyMeta("port", "port", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x800, None, None, r"""([0-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]){0,1}""", [], []),
"rn": MoPropertyMeta("rn", "rn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x1000, 0, 255, None, [], []),
"slot": MoPropertyMeta("slot", "slot", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2000, None, None, r"""([1-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]|L|MLOM|L1|L2|OCP){0,1}""", [], []),
"state": MoPropertyMeta("state", "state", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4000, None, None, None, ["Disabled", "Enabled", "disabled", "enabled"], []),
"status": MoPropertyMeta("status", "status", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8000, None, None, None, ["", "created", "deleted", "modified", "removed"], []),
"subtype": MoPropertyMeta("subtype", "subtype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10000, None, None, None, ["HTTP"], []),
"type": MoPropertyMeta("type", "type", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20000, None, None, None, ["HTTP"], []),
"uri": MoPropertyMeta("uri", "uri", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40000, 0, 255, None, [], []),
"child_action": MoPropertyMeta("child_action", "childAction", "string", VersionMeta.Version413a, MoPropertyMeta.INTERNAL, None, None, None, None, [], []),
},
"modular": {
"dn": MoPropertyMeta("dn", "dn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2, 0, 255, None, [], []),
"dnsserver": MoPropertyMeta("dnsserver", "dnsserver", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []),
"gateway": MoPropertyMeta("gateway", "gateway", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []),
"ip_config_type": MoPropertyMeta("ip_config_type", "ipConfigType", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10, None, None, None, ["", "DHCP", "Static"], []),
"ipaddress": MoPropertyMeta("ipaddress", "ipaddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], []),
"iptype": MoPropertyMeta("iptype", "iptype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40, None, None, None, ["", "IPv4", "IPv6"], []),
"mac_address": MoPropertyMeta("mac_address", "macAddress", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x80, None, None, r"""(([0-9a-fA-F][0-9a-fA-F]:){5}([0-9a-fA-F][0-9a-fA-F]))|0""", [""], []),
"name": MoPropertyMeta("name", "name", "string", VersionMeta.Version413a, MoPropertyMeta.NAMING, 0x100, None, None, r"""(([a-zA-Z0-9]{1})|([a-zA-Z0-9]{1}[a-zA-Z0-9_\-]{0,28}[a-zA-Z0-9]{1})|([a-zA-Z0-9]{2}))""", [], []),
"netmask_or_i_pv6_prefix": MoPropertyMeta("netmask_or_i_pv6_prefix", "netmaskOrIPv6Prefix", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x200, 0, 255, r"""(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)\.(25[0-5]|2[0-4][0-9]|[01]?[0-9][0-9]?)""", [""], ["1-128"]),
"order": MoPropertyMeta("order", "order", "uint", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x400, None, None, None, [], ["1-255"]),
"port": MoPropertyMeta("port", "port", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x800, None, None, r"""([0-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]){0,1}""", [], []),
"rn": MoPropertyMeta("rn", "rn", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x1000, 0, 255, None, [], []),
"slot": MoPropertyMeta("slot", "slot", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x2000, None, None, r"""([1-9]|[1-9][0-9]|1[0-9][0-9]|2[0-4][0-9]|25[0-5]|L|MLOM|SIOC1|SIOC2|IOESlot1|IOESlot2|SBLOM1){0,1}""", [], []),
"state": MoPropertyMeta("state", "state", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x4000, None, None, None, ["Disabled", "Enabled", "disabled", "enabled"], []),
"status": MoPropertyMeta("status", "status", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x8000, None, None, None, ["", "created", "deleted", "modified", "removed"], []),
"subtype": MoPropertyMeta("subtype", "subtype", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x10000, None, None, None, ["HTTP"], []),
"type": MoPropertyMeta("type", "type", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x20000, None, None, None, ["HTTP"], []),
"uri": MoPropertyMeta("uri", "uri", "string", VersionMeta.Version413a, MoPropertyMeta.READ_WRITE, 0x40000, 0, 255, None, [], []),
"child_action": MoPropertyMeta("child_action", "childAction", "string", VersionMeta.Version413a, MoPropertyMeta.INTERNAL, None, None, None, None, [], []),
},
}
prop_map = {
"classic": {
"dn": "dn",
"dnsserver": "dnsserver",
"gateway": "gateway",
"ipConfigType": "ip_config_type",
"ipaddress": "ipaddress",
"iptype": "iptype",
"macAddress": "mac_address",
"name": "name",
"netmaskOrIPv6Prefix": "netmask_or_i_pv6_prefix",
"order": "order",
"port": "port",
"rn": "rn",
"slot": "slot",
"state": "state",
"status": "status",
"subtype": "subtype",
"type": "type",
"uri": "uri",
"childAction": "child_action",
},
"modular": {
"dn": "dn",
"dnsserver": "dnsserver",
"gateway": "gateway",
"ipConfigType": "ip_config_type",
"ipaddress": "ipaddress",
"iptype": "iptype",
"macAddress": "mac_address",
"name": "name",
"netmaskOrIPv6Prefix": "netmask_or_i_pv6_prefix",
"order": "order",
"port": "port",
"rn": "rn",
"slot": "slot",
"state": "state",
"status": "status",
"subtype": "subtype",
"type": "type",
"uri": "uri",
"childAction": "child_action",
},
}
def __init__(self, parent_mo_or_dn, name, **kwargs):
self._dirty_mask = 0
self.name = name
self.dnsserver = None
self.gateway = None
self.ip_config_type = None
self.ipaddress = None
self.iptype = None
self.mac_address = None
self.netmask_or_i_pv6_prefix = None
self.order = None
self.port = None
self.slot = None
self.state = None
self.status = None
self.subtype = None
self.type = None
self.uri = None
self.child_action = None
ManagedObject.__init__(self, "LsbootHttp", parent_mo_or_dn, **kwargs)
| 74.098039 | 365 | 0.569375 | 1,486 | 11,337 | 4.253701 | 0.092194 | 0.03607 | 0.018984 | 0.239203 | 0.857934 | 0.854928 | 0.854928 | 0.854928 | 0.854928 | 0.854928 | 0 | 0.106372 | 0.17906 | 11,337 | 152 | 366 | 74.585526 | 0.572795 | 0.008821 | 0 | 0.59542 | 0 | 0.122137 | 0.341559 | 0.175234 | 0 | 0 | 0.017283 | 0 | 0 | 1 | 0.007634 | false | 0 | 0.022901 | 0 | 0.175573 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
63a50177e26de25605c36132366d30c71d7e244d | 14,006 | py | Python | ETL_pipelines/web_api_pipelines/stock_pipeline/market_indicies.py | MatthewTe/ETL_pipelines | fd9025834ff6ffc91422593ba60aa3bb49c54846 | [
"MIT"
] | null | null | null | ETL_pipelines/web_api_pipelines/stock_pipeline/market_indicies.py | MatthewTe/ETL_pipelines | fd9025834ff6ffc91422593ba60aa3bb49c54846 | [
"MIT"
] | null | null | null | ETL_pipelines/web_api_pipelines/stock_pipeline/market_indicies.py | MatthewTe/ETL_pipelines | fd9025834ff6ffc91422593ba60aa3bb49c54846 | [
"MIT"
] | null | null | null | # Importing data management libraries:
import pandas as pd
import yfinance as yf
import sqlite3
import json
# Importing ETL libraries:
import bonobo
# Importing webscraping packages:
import requests
from bs4 import BeautifulSoup
# Importing the Base Pipeline API Object:
from ETL_pipelines.base_pipeline import Pipeline
# Importing the Sqlite Pipeline API Objects to Re-Factor:
from ETL_pipelines.sqlite_pipelines.stock_pipeline.market_indicies import *
class SPYCompositionWebAPIPipeline(SPYCompositionPipeline):
"""An object that contains all the logic and methods
necessary to construct a ETL pipeline for extracting
and ingesting daily relevant SPY Index data to a database through
the velkozz REST API.
It inherits from the Sqlite SPYCompositionPipeline object and is modified
to perform POST requests to the velkozz Web API through the requests
python library.
The primary documentation for this pipeline is found in the Sqlite SPYCompositionPipeline
API. This objects adapts the Pipeline object to insert data to a REST Web API
in place of a Sqlite database.
Example:
test_pipeline = SPYCompositionWebAPIPipeline("http://localhost:8000/exampleapi/")
Arguments:
api_endpoint (str): The API endpoint associated with the specific subreddit database table.
This is the url endpoint that the requests method uses to Query and Write JSON data to.
"""
def __init__(self, api_endpoint, **kwargs):
# Declaring instance params:
self.api_endpoint = api_endpoint
# Hard Coded URL for S&P 500 Index Contents:
self.spy_comp_url = "https://en.wikipedia.org/wiki/List_of_S%26P_500_companies"
# Executing the pipeline:
self.execute_pipeline()
# Overwriting the ETL load method to perform POST request:
def load(self, *args):
"""The method recieves the formatted dataframe containing SPY
composition data and loads the data to the velkozz web API.
The method seralizes the dataframe into a JSON format and sends
data to the REST API through a POST request.
Arguments:
args (tuple): A length-1 tuple containing the formatted
dataframe of components generted by the transform method
"""
# Unpacking the argument tuples:
content_df = args[0]
# Seralizing Dataframe into a JSON format:
posts_json = content_df.to_json(orient="records")
parsed_content = json.loads(posts_json)
# Making a POST request to the Web API to write data to the database:
post_response = requests.post(self.api_endpoint, json=parsed_content)
class DJIACompositionWebAPIPipeline(DJIACompositionPipeline):
"""An object that contains all the logic and methods
necessary to construct a ETL pipeline for extracting
and ingesting daily relevant DJIA Index data to a database through
the velkozz REST API.
It inherits from the Sqlite DJIACompositionPipeline object and is modified
to perform POST requests to the velkozz Web API through the requests
python library.
The primary documentation for this pipeline is found in the Sqlite DJIACompositionPipeline
API. This objects adapts the Pipeline object to insert data to a REST Web API
in place of a Sqlite database.
Example:
test_pipeline = DJIACompositionWebAPIPipeline("http://localhost:8000/exampleapi/")
Arguments:
api_endpoint (str): The API endpoint associated with the specific subreddit database table.
This is the url endpoint that the requests method uses to Query and Write JSON data to.
"""
def __init__(self, api_endpoint, **kwargs):
# Declaring instance params:
self.api_endpoint = api_endpoint
# Hard Coded URL for S&P 500 Index Contents:
self.djia_comp_url = "https://en.wikipedia.org/wiki/Dow_Jones_Industrial_Average"
# Executing the pipeline:
self.execute_pipeline()
# Overwriting the ETL load method to perform POST request:
def load(self, *args):
"""The method recieves the formatted dataframe containing DJIA
composition data and loads the data to the velkozz web API.
The method seralizes the dataframe into a JSON format and sends
data to the REST API through a POST request.
Arguments:
args (tuple): A length-1 tuple containing the formatted
dataframe of components generted by the transform method
"""
# Unpacking the argument tuples:
content_df = args[0]
# Seralizing Dataframe into a JSON format:
posts_json = content_df.to_json(orient="records")
parsed_content = json.loads(posts_json)
print(parsed_content)
# Making a POST request to the Web API to write data to the database:
post_response = requests.post(self.api_endpoint, json=parsed_content)
class SPTSXCompositionWebAPIPipeline(SPTSXCompositionPipeline):
"""An object that contains all the logic and methods
necessary to construct a ETL pipeline for extracting
and ingesting daily relevant SPTSX Index data to a database through
the velkozz REST API.
It inherits from the Sqlite SPTSXComposition object and is modified
to perform POST requests to the velkozz Web API through the requests
python library.
The primary documentation for this pipeline is found in the Sqlite SPTSXComposition
API. This objects adapts the Pipeline object to insert data to a REST Web API
in place of a Sqlite database.
Example:
test_pipeline = DJIACompositionWebAPIPipeline("http://localhost:8000/exampleapi/")
Arguments:
api_endpoint (str): The API endpoint associated with the specific subreddit database table.
This is the url endpoint that the requests method uses to Query and Write JSON data to.
"""
def __init__(self, api_endpoint, **kwargs):
# Declaring instance params:
self.api_endpoint = api_endpoint
# Hard Coded URL for S&P 500 Index Contents:
self.sptsx_composite_url = "https://en.wikipedia.org/wiki/S%26P/TSX_Composite_Index"
# Executing the pipeline:
self.execute_pipeline()
# Overwriting the ETL load method to perform POST request:
def load(self, *args):
"""The method recieves the formatted dataframe containing SPTSX
composition data and loads the data to the velkozz web API.
The method seralizes the dataframe into a JSON format and sends
data to the REST API through a POST request.
Arguments:
args (tuple): A length-1 tuple containing the formatted
dataframe of components generted by the transform method
"""
# Unpacking the argument tuples:
content_df = args[0]
# Seralizing Dataframe into a JSON format:
posts_json = content_df.to_json(orient="records")
parsed_content = json.loads(posts_json)
print(parsed_content)
# Making a POST request to the Web API to write data to the database:
post_response = requests.post(self.api_endpoint, json=parsed_content)
class FTSECompositionWebAPIPipeline(FTSECompositionPipeline):
"""An object that contains all the logic and methods
necessary to construct a ETL pipeline for extracting
and ingesting daily relevant FTSE Index data to a database through
the velkozz REST API.
It inherits from the Sqlite FTSEComposition object and is modified
to perform POST requests to the velkozz Web API through the requests
python library.
The primary documentation for this pipeline is found in the Sqlite FTSEComposition
API. This objects adapts the Pipeline object to insert data to a REST Web API
in place of a Sqlite database.
Example:
test_pipeline = FTSECompositionWebAPIPipeline("http://localhost:8000/exampleapi/")
Arguments:
api_endpoint (str): The API endpoint associated with the specific subreddit database table.
This is the url endpoint that the requests method uses to Query and Write JSON data to.
"""
def __init__(self, api_endpoint, **kwargs):
# Declaring instance params:
self.api_endpoint = api_endpoint
# Hard Coded URL for S&P 500 Index Contents:
self.ftse_market_index_url = "https://en.wikipedia.org/wiki/FTSE_100_Index"
# Executing the pipeline:
self.execute_pipeline()
# Overwriting the ETL load method to perform POST request:
def load(self, *args):
"""The method recieves the formatted dataframe containing FTSE
composition data and loads the data to the velkozz web API.
The method seralizes the dataframe into a JSON format and sends
data to the REST API through a POST request.
Arguments:
args (tuple): A length-1 tuple containing the formatted
dataframe of components generted by the transform method
"""
# Unpacking the argument tuples:
content_df = args[0]
# Seralizing Dataframe into a JSON format:
posts_json = content_df.to_json(orient="records")
parsed_content = json.loads(posts_json)
# Making a POST request to the Web API to write data to the database:
post_response = requests.post(self.api_endpoint, json=parsed_content)
class SMICompositionWebAPIPipeline(SMICompositionPipeline):
"""An object that contains all the logic and methods
necessary to construct a ETL pipeline for extracting
and ingesting daily relevant Swiss Market Index data to a database through
the velkozz REST API.
It inherits from the Sqlite SMIComposition object and is modified
to perform POST requests to the velkozz Web API through the requests
python library.
The primary documentation for this pipeline is found in the Sqlite SMIComposition
API. This objects adapts the Pipeline object to insert data to a REST Web API
in place of a Sqlite database.
Example:
test_pipeline = SMICompositionWebAPIPipeline("http://localhost:8000/exampleapi/")
Arguments:
api_endpoint (str): The API endpoint associated with the specific subreddit database table.
This is the url endpoint that the requests method uses to Query and Write JSON data to.
"""
def __init__(self, api_endpoint, **kwargs):
# Declaring instance params:
self.api_endpoint = api_endpoint
# Hard Coded URL for S&P 500 Index Contents:
self.smi_composition_url = "https://en.wikipedia.org/wiki/Swiss_Market_Index"
# Executing the pipeline:
self.execute_pipeline()
# Overwriting the ETL load method to perform POST request:
def load(self, *args):
"""The method recieves the formatted dataframe containing SMI
composition data and loads the data to the velkozz web API.
The method seralizes the dataframe into a JSON format and sends
data to the REST API through a POST request.
Arguments:
args (tuple): A length-1 tuple containing the formatted
dataframe of components generted by the transform method
"""
# Unpacking the argument tuples:
content_df = args[0]
# Seralizing Dataframe into a JSON format:
posts_json = content_df.to_json(orient="records")
parsed_content = json.loads(posts_json)
# Making a POST request to the Web API to write data to the database:
post_response = requests.post(self.api_endpoint, json=parsed_content)
class SPICompositionWebAPIPipeline(SPICompositionPipeline):
"""An object that contains all the logic and methods
necessary to construct a ETL pipeline for extracting
and ingesting daily relevant Swiss Performance Index data to a database through
the velkozz REST API.
It inherits from the Sqlite SPIComposition object and is modified
to perform POST requests to the velkozz Web API through the requests
python library.
The primary documentation for this pipeline is found in the Sqlite SPIComposition
API. This objects adapts the Pipeline object to insert data to a REST Web API
in place of a Sqlite database.
Example:
test_pipeline = SPICompositionWebAPIPipeline("http://localhost:8000/exampleapi/")
Arguments:
api_endpoint (str): The API endpoint associated with the specific subreddit database table.
This is the url endpoint that the requests method uses to Query and Write JSON data to.
"""
def __init__(self, api_endpoint, **kwargs):
# Declaring instance params:
self.api_endpoint = api_endpoint
# Hard Coded URL for S&P 500 Index Contents:
self.spi_composition_url = "https://en.wikipedia.org/wiki/Swiss_Performance_Index"
# Executing the pipeline:
self.execute_pipeline()
# Overwriting the ETL load method to perform POST request:
def load(self, *args):
"""The method recieves the formatted dataframe containing SPI
composition data and loads the data to the velkozz web API.
The method seralizes the dataframe into a JSON format and sends
data to the REST API through a POST request.
Arguments:
args (tuple): A length-1 tuple containing the formatted
dataframe of components generted by the transform method
"""
# Unpacking the argument tuples:
content_df = args[0]
# Seralizing Dataframe into a JSON format:
posts_json = content_df.to_json(orient="records")
parsed_content = json.loads(posts_json)
# Making a POST request to the Web API to write data to the database:
post_response = requests.post(self.api_endpoint, json=parsed_content)
| 39.903134 | 99 | 0.703556 | 1,841 | 14,006 | 5.271048 | 0.098859 | 0.022259 | 0.027824 | 0.018549 | 0.877061 | 0.877061 | 0.871702 | 0.865519 | 0.856863 | 0.856863 | 0 | 0.006271 | 0.248536 | 14,006 | 350 | 100 | 40.017143 | 0.915724 | 0.658432 | 0 | 0.704225 | 0 | 0 | 0.090678 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.169014 | false | 0 | 0.126761 | 0 | 0.380282 | 0.028169 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
894eb83b9a16897b53be0f703ec564c7c73aac51 | 9,945 | py | Python | ezcoach/ezcoach/tests/value_tests.py | Pawel-M/EZ-Coach | ee078b8ab7409730e99cb38653d03aa574ab914b | [
"MIT"
] | 1 | 2021-09-14T13:17:33.000Z | 2021-09-14T13:17:33.000Z | ezcoach/ezcoach/tests/value_tests.py | Pawel-M/EZ-Coach | ee078b8ab7409730e99cb38653d03aa574ab914b | [
"MIT"
] | null | null | null | ezcoach/ezcoach/tests/value_tests.py | Pawel-M/EZ-Coach | ee078b8ab7409730e99cb38653d03aa574ab914b | [
"MIT"
] | null | null | null | import unittest
import numpy as np
from ezcoach.value import BoolValue, IntValue, FloatValue, BoolList, IntList, FloatList
from ezcoach.range import Range, UnboundRange
class TestBoolValueContains(unittest.TestCase):
def test_contains_true(self):
value = BoolValue()
self.assertTrue(value.contains(True), 'Contains failed')
def test_contains_false(self):
value = BoolValue()
self.assertTrue(value.contains(False), 'Contains failed')
def test_contains_int(self):
value = BoolValue()
self.assertFalse(value.contains(5), 'Contains failed')
def test_contains_float(self):
value = BoolValue()
self.assertFalse(value.contains(2.5), 'Contains failed')
def test_contains_zero(self):
value = BoolValue()
self.assertFalse(value.contains(0), 'Contains failed')
class TestIntValueContains(unittest.TestCase):
def test_int_range_contains_min_border(self):
value = IntValue(Range(1, 5))
self.assertTrue(value.contains(1), 'Contains failed')
def test_int_range_contains_max_border(self):
value = IntValue(Range(1, 5))
self.assertTrue(value.contains(5), 'Contains failed')
def test_int_range_contains_middle(self):
value = IntValue(Range(1, 5))
self.assertTrue(value.contains(3), 'Contains failed')
def test_int_range_not_contains_min_border(self):
value = IntValue(Range(1, 5))
self.assertFalse(value.contains(.9999), 'Contains failed')
def test_int_range_not_contains_max_border(self):
value = IntValue(Range(1, 5))
self.assertFalse(value.contains(5.0001), 'Contains failed')
def test_int_range_not_contains_min_large(self):
value = IntValue(Range(1, 5))
self.assertFalse(value.contains(-9999999), 'Contains failed')
def test_int_range_not_contains_max_large(self):
value = IntValue(Range(1, 5))
self.assertFalse(value.contains(9999999), 'Contains failed')
def test_unbound_range_contains_int(self):
value = IntValue(UnboundRange())
self.assertTrue(value.contains(5), 'Contains failed')
def test_unbound_range_contains_float(self):
value = IntValue(UnboundRange())
self.assertFalse(value.contains(2.5), 'Contains failed')
def test_unbound_range_contains_zero(self):
value = IntValue(UnboundRange())
self.assertTrue(value.contains(0), 'Contains failed')
class TestFloatValueContains(unittest.TestCase):
def test_int_range_contains_min_border(self):
value = FloatValue(Range(.5, 2.5))
self.assertTrue(value.contains(.5), 'Contains failed')
def test_int_range_contains_max_border(self):
value = FloatValue(Range(.5, 2.5))
self.assertTrue(value.contains(2.5), 'Contains failed')
def test_int_range_contains_middle(self):
value = FloatValue(Range(.5, 2.5))
self.assertTrue(value.contains(1.5), 'Contains failed')
def test_int_range_not_contains_min_border(self):
value = FloatValue(Range(.5, 2.5))
self.assertFalse(value.contains(.49999), 'Contains failed')
def test_int_range_not_contains_max_border(self):
value = FloatValue(Range(.5, 2.5))
self.assertFalse(value.contains(2.50001), 'Contains failed')
def test_int_range_not_contains_min_large(self):
value = FloatValue(Range(.5, 2.5))
self.assertFalse(value.contains(-9999999.), 'Contains failed')
def test_int_range_not_contains_max_large(self):
value = FloatValue(Range(.5, 2.5))
self.assertFalse(value.contains(9999999.), 'Contains failed')
def test_unbound_range_contains_int(self):
value = FloatValue(UnboundRange())
self.assertFalse(value.contains(5), 'Contains failed')
def test_unbound_range_contains_float(self):
value = FloatValue(UnboundRange())
self.assertTrue(value.contains(2.5), 'Contains failed')
def test_unbound_range_contains_zero(self):
value = FloatValue(UnboundRange())
self.assertTrue(value.contains(0.), 'Contains failed')
def test_unbound_range_contains_zero_int(self):
value = FloatValue(UnboundRange())
self.assertFalse(value.contains(0), 'Contains failed')
class TestBoolListValueContains(unittest.TestCase):
def test_size_1_contains_true(self):
value = BoolList(1)
self.assertFalse(value.contains(True), 'Contains failed')
def test_size_1_contains_false(self):
value = BoolList(1)
self.assertFalse(value.contains(False), 'Contains failed')
def test_size_1_contains_true_list(self):
value = BoolList(1)
self.assertTrue(value.contains([True]), 'Contains failed')
def test_size_1_contains_false_list(self):
value = BoolList(1)
self.assertTrue(value.contains([False]), 'Contains failed')
def test_size_2_contains_true_list(self):
value = BoolList(2)
self.assertTrue(value.contains([True, True]), 'Contains failed')
def test_size_2_contains_false_list(self):
value = BoolList(2)
self.assertTrue(value.contains([False, False]), 'Contains failed')
def test_size_2_contains_true_false_list(self):
value = BoolList(2)
self.assertTrue(value.contains([True, False]), 'Contains failed')
def test_size_10_contains_true_list(self):
value = BoolList(10)
self.assertTrue(value.contains([True for __ in range(10)]), 'Contains failed')
def test_size_10_contains_false_list(self):
value = BoolList(10)
self.assertTrue(value.contains([False for __ in range(10)]), 'Contains failed')
def test_size_10_contains_true_false_list(self):
value = BoolList(10)
bool_list = [True, False, True, False, True, False, True, False, True, False]
self.assertTrue(value.contains(bool_list), 'Contains failed')
class TestIntListValueContains(unittest.TestCase):
def test_size_1_contains_in(self):
value = IntList([Range(1, 5)])
self.assertFalse(value.contains(2), 'Contains failed')
def test_size_1_contains_out(self):
value = IntList([Range(1, 5)])
self.assertFalse(value.contains(6), 'Contains failed')
def test_size_1_contains_in_list(self):
value = IntList([Range(1, 5)])
self.assertTrue(value.contains([2]), 'Contains failed')
def test_size_1_contains_out_list(self):
value = IntList([Range(1, 5)])
self.assertFalse(value.contains([6]), 'Contains failed')
def test_size_2_contains_in_list(self):
value = IntList([Range(1, 5), Range(1, 5)])
self.assertTrue(value.contains([2, 3]), 'Contains failed')
def test_size_2_contains_out_list(self):
value = IntList([Range(1, 5), Range(1, 5)])
self.assertFalse(value.contains([6, 7]), 'Contains failed')
def test_size_2_contains_in_out_list(self):
value = IntList([Range(1, 5), Range(1, 5)])
self.assertFalse(value.contains([2, 7]), 'Contains failed')
def test_size_10_contains_in_list(self):
value = IntList([Range(1, 5) for __ in range(10)])
v = [1, 2, 3, 4, 5, 1, 2, 3, 4, 5]
self.assertTrue(value.contains(v), 'Contains failed')
def test_size_10_contains_out_list(self):
value = IntList([Range(1, 5) for __ in range(10)])
v = [-5, -4, -3, -2, -1, 6, 7, 8, 9, 10]
self.assertFalse(value.contains(v), 'Contains failed')
def test_size_10_contains_in_out_list(self):
value = IntList([Range(1, 5) for __ in range(10)])
v = [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]
self.assertFalse(value.contains(v), 'Contains failed')
def test_size_10_contains_wrong_len_list(self):
value = IntList([Range(1, 5) for __ in range(10)])
self.assertFalse(value.contains([2, 3]), 'Contains failed')
class TestFloatListValueContains(unittest.TestCase):
def test_size_1_contains_in(self):
value = FloatList([Range(.5, 2.5)])
self.assertFalse(value.contains(1.), 'Contains failed')
def test_size_1_contains_out(self):
value = FloatList([Range(.5, 2.5)])
self.assertFalse(value.contains(3.), 'Contains failed')
def test_size_1_contains_in_list(self):
value = FloatList([Range(.5, 2.5)])
self.assertTrue(value.contains([1.]), 'Contains failed')
def test_size_1_contains_out_list(self):
value = FloatList([Range(.5, 2.5)])
self.assertFalse(value.contains([3.]), 'Contains failed')
def test_size_2_contains_in_list(self):
value = FloatList([Range(.5, 2.5), Range(.5, 2.5)])
self.assertTrue(value.contains([1., 1.5]), 'Contains failed')
def test_size_2_contains_out_list(self):
value = FloatList([Range(.5, 2.5), Range(.5, 2.5)])
self.assertFalse(value.contains([3., 3.5]), 'Contains failed')
def test_size_2_contains_in_out_list(self):
value = FloatList([Range(.5, 2.5), Range(.5, 2.5)])
self.assertFalse(value.contains([2, 7]), 'Contains failed')
def test_size_10_contains_in_list(self):
value = FloatList([Range(.5, 2.5) for __ in range(10)])
v = [.5, 1., 1.5, 2., 2.5, .5, 1., 1.5, 2., 2.5]
self.assertTrue(value.contains(v), 'Contains failed')
def test_size_10_contains_out_list(self):
value = FloatList([Range(.5, 2.5) for __ in range(10)])
v = [-2.5, -2., -1.5, -1., -.5, 3., 3.5, 4., 4.5, 5.]
self.assertFalse(value.contains(v), 'Contains failed')
def test_size_10_contains_in_out_list(self):
value = FloatList([Range(.5, 2.5) for __ in range(10)])
v = [.5, 1., 1.5, 2., 2.5, 3., 3.5, 4., 4.5, 5.]
self.assertFalse(value.contains(v), 'Contains failed')
def test_size_10_contains_wrong_len_list(self):
value = FloatList([Range(.5, 2.5) for __ in range(10)])
self.assertFalse(value.contains([1.5, 2.]), 'Contains failed')
| 37.958015 | 87 | 0.666466 | 1,335 | 9,945 | 4.740824 | 0.050936 | 0.064149 | 0.139675 | 0.172539 | 0.929215 | 0.920367 | 0.910412 | 0.87818 | 0.79823 | 0.697741 | 0 | 0.043985 | 0.197587 | 9,945 | 261 | 88 | 38.103448 | 0.749123 | 0 | 0 | 0.617801 | 0 | 0 | 0.087481 | 0 | 0 | 0 | 0 | 0 | 0.303665 | 1 | 0.303665 | false | 0 | 0.020942 | 0 | 0.356021 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
89ac3401a19c90331c972b1532a07181ccaa00ff | 10,491 | py | Python | store/tests/test_goods.py | UniqueQueue/ethereum-store | 69f25f59980c6790a682c2d2700b0f98cb1d989a | [
"MIT"
] | null | null | null | store/tests/test_goods.py | UniqueQueue/ethereum-store | 69f25f59980c6790a682c2d2700b0f98cb1d989a | [
"MIT"
] | null | null | null | store/tests/test_goods.py | UniqueQueue/ethereum-store | 69f25f59980c6790a682c2d2700b0f98cb1d989a | [
"MIT"
] | null | null | null | from unittest import mock
from django.contrib.auth import get_user_model
from django.contrib.auth.models import AnonymousUser
from django.urls import reverse
from parameterized import parameterized
from store.models import Good
from store.tests.utils import PermissionTest
class GoodsTest(PermissionTest):
def setUp(self):
super().setUp()
self.user, created = get_user_model().objects.update_or_create(
username='test',
defaults={'is_superuser': False, 'is_staff': False, 'is_active': True})
self.client.force_login(self.user)
self.good, created = Good.objects.get_or_create(name='good')
@parameterized.expand([
([], 403, None),
(["store.view_good"], 200, 1),
])
def test_list(self, perms, status_code, results_count):
with self._set_perms(self.user, perms):
url = reverse('store:goods-list')
response = self.client.get(url)
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
results = response.json()['results']
self.assertEqual(results_count, len(results))
@parameterized.expand([
([], 403),
(["store.view_good"], 200),
])
def test_retrieve(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
results = response.json()
self.assertDictEqual(results, {
'id': self.good.id,
'name': mock.ANY,
})
@parameterized.expand([
([], 403),
(["store.add_good", "store.change_good"], 201),
])
def test_create(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-list')
data = {'name': 'test good'}
response = self.client.post(url, data=data, format='json')
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
created_good_id = response.json()['id']
url = reverse('store:goods-detail', kwargs={"pk": created_good_id})
response = self.client.get(url)
self.assertEqual(200, response.status_code, response.content)
results = response.json()
self.assertDictEqual(results, {
'id': created_good_id,
'name': 'test good',
})
@parameterized.expand([
([], 403),
(["store.add_good", "store.change_good"], 200),
])
def test_update(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
data = {'name': 'test good'}
response = self.client.put(url, data=data, format='json')
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(200, response.status_code, response.content)
results = response.json()
self.assertDictEqual(results, {
'id': self.good.id,
'name': 'test good',
})
@parameterized.expand([
([], 403),
(["store.add_good", "store.change_good"], 200),
])
def test_partial_update(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
data = {'name': 'test good'}
response = self.client.patch(url, data=data, format='json')
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(200, response.status_code, response.content)
results = response.json()
self.assertDictEqual(results, {
'id': self.good.id,
'name': 'test good',
})
@parameterized.expand([
([], 403),
(["store.delete_good"], 403),
])
def test_destroy(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.patch(url)
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(404, response.status_code, response.content)
class AnonymousGoodsTest(PermissionTest):
def setUp(self):
super().setUp()
self.user = AnonymousUser()
self.good, created = Good.objects.get_or_create(name='good')
@parameterized.expand([
([], 401, None),
(["store.view_good"], 200, 1),
])
def test_list(self, perms, status_code, results_count):
with self._set_perms(self.user, perms):
url = reverse('store:goods-list')
response = self.client.get(url)
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
results = response.json()['results']
self.assertEqual(results_count, len(results))
@parameterized.expand([
([], 401),
(["store.view_good"], 200),
])
def test_retrieve(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
results = response.json()
self.assertDictEqual(results, {
'id': self.good.id,
'name': mock.ANY,
})
@parameterized.expand([
([], 401),
(["store.add_good", "store.change_good"], 201),
])
def test_create(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-list')
data = {'name': 'test good'}
response = self.client.post(url, data=data, format='json')
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
created_good_id = response.json()['id']
url = reverse('store:goods-detail', kwargs={"pk": created_good_id})
response = self.client.get(url)
self.assertEqual(200, response.status_code, response.content)
results = response.json()
self.assertDictEqual(results, {
'id': created_good_id,
'name': 'test good',
})
@parameterized.expand([
([], 401),
(["store.add_good", "store.change_good"], 200),
])
def test_update(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
data = {'name': 'test good'}
response = self.client.put(url, data=data, format='json')
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(200, response.status_code, response.content)
results = response.json()
self.assertDictEqual(results, {
'id': self.good.id,
'name': 'test good',
})
@parameterized.expand([
([], 401),
(["store.add_good", "store.change_good"], 200),
])
def test_partial_update(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
data = {'name': 'test good'}
response = self.client.patch(url, data=data, format='json')
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(200, response.status_code, response.content)
results = response.json()
self.assertDictEqual(results, {
'id': self.good.id,
'name': 'test good',
})
@parameterized.expand([
([], 401),
(["store.delete_good"], 401),
])
def test_destroy(self, perms, status_code):
with self._set_perms(self.user, perms):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.delete(url)
self.assertEqual(status_code, response.status_code, response.content)
if status_code >= 400:
return
with self._set_perms(self.user, ['store.view_good']):
url = reverse('store:goods-detail', kwargs={"pk": self.good.id})
response = self.client.get(url)
self.assertEqual(404, response.status_code, response.content)
| 33.094637 | 83 | 0.569155 | 1,154 | 10,491 | 5.030329 | 0.077123 | 0.096469 | 0.099225 | 0.055125 | 0.921447 | 0.920586 | 0.920586 | 0.920586 | 0.905426 | 0.904393 | 0 | 0.018074 | 0.293299 | 10,491 | 316 | 84 | 33.199367 | 0.764904 | 0 | 0 | 0.915254 | 0 | 0 | 0.0998 | 0 | 0 | 0 | 0 | 0 | 0.127119 | 1 | 0.059322 | false | 0 | 0.029661 | 0 | 0.148305 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
f6a426bf319a7950fe5f23fa4ee9fa18662af8d5 | 10,098 | py | Python | tests.py | FundersClub/business_days | fb460f890f1ec936edc24ac353ec2a81870dc3e8 | [
"Apache-2.0"
] | 2 | 2017-04-10T22:48:46.000Z | 2017-04-15T19:08:55.000Z | tests.py | FundersClub/business_days | fb460f890f1ec936edc24ac353ec2a81870dc3e8 | [
"Apache-2.0"
] | null | null | null | tests.py | FundersClub/business_days | fb460f890f1ec936edc24ac353ec2a81870dc3e8 | [
"Apache-2.0"
] | null | null | null | from datetime import (
date,
datetime,
)
from unittest import TestCase
from business_days import (
business_timediff,
days_from_now,
)
class BusinessDaysTests(TestCase):
def test_business_days_calculations(self):
# Test starting from a Monday.
from_day = date(2014, 2, 17)
self.assertEqual(days_from_now(from_day, 0), date(2014, 2, 17))
self.assertEqual(days_from_now(from_day, 1), date(2014, 2, 18))
self.assertEqual(days_from_now(from_day, 2), date(2014, 2, 19))
self.assertEqual(days_from_now(from_day, 3), date(2014, 2, 20))
self.assertEqual(days_from_now(from_day, 4), date(2014, 2, 21))
self.assertEqual(days_from_now(from_day, 5), date(2014, 2, 24))
self.assertEqual(days_from_now(from_day, 6), date(2014, 2, 25))
# Test starting from a Friday.
from_day = date(2014, 2, 21)
self.assertEqual(days_from_now(from_day, 0), date(2014, 2, 21))
self.assertEqual(days_from_now(from_day, 1), date(2014, 2, 24))
self.assertEqual(days_from_now(from_day, 2), date(2014, 2, 25))
self.assertEqual(days_from_now(from_day, 3), date(2014, 2, 26))
self.assertEqual(days_from_now(from_day, 4), date(2014, 2, 27))
self.assertEqual(days_from_now(from_day, 5), date(2014, 2, 28))
self.assertEqual(days_from_now(from_day, 6), date(2014, 3, 3))
# Test starting from a Saturday.
from_day = date(2014, 2, 22)
self.assertEqual(days_from_now(from_day, 0), date(2014, 2, 22))
self.assertEqual(days_from_now(from_day, 1), date(2014, 2, 24))
self.assertEqual(days_from_now(from_day, 2), date(2014, 2, 25))
self.assertEqual(days_from_now(from_day, 3), date(2014, 2, 26))
self.assertEqual(days_from_now(from_day, 4), date(2014, 2, 27))
self.assertEqual(days_from_now(from_day, 5), date(2014, 2, 28))
self.assertEqual(days_from_now(from_day, 6), date(2014, 3, 3))
# Test holidays.
from_day = date(2015, 12, 22)
self.assertEqual(days_from_now(from_day, 0), date(2015, 12, 22))
self.assertEqual(days_from_now(from_day, 1), date(2015, 12, 23))
self.assertEqual(days_from_now(from_day, 2), date(2015, 12, 24))
self.assertEqual(days_from_now(from_day, 3), date(2015, 12, 28))
self.assertEqual(days_from_now(from_day, 4), date(2015, 12, 29))
self.assertEqual(days_from_now(from_day, 5), date(2015, 12, 30))
self.assertEqual(days_from_now(from_day, 6), date(2015, 12, 31))
self.assertEqual(days_from_now(from_day, 7), date(2016, 01, 04))
def test_business_timediff(self):
hour = 3600
# Mon 07:00 -> Mon 10:30 (expected: 1.5 business hours)
self.assertEqual(hour * 1.5, business_timediff(
datetime(2016, 10, 17, 7),
datetime(2016, 10, 17, 10, 30),
).total_seconds())
# Mon 09:00 -> Mon 10:30 (expected: 1.5 business hours)
self.assertEqual(hour * 1.5, business_timediff(
datetime(2016, 10, 17, 9),
datetime(2016, 10, 17, 10, 30),
).total_seconds())
# Mon 09:30 -> Mon 10:30 (expected: 1 business hour)
self.assertEqual(hour, business_timediff(
datetime(2016, 10, 17, 9, 30),
datetime(2016, 10, 17, 10, 30),
).total_seconds())
# Sun 07:00 -> Sun 10:30 (expected: 0 business hours)
self.assertEqual(0, business_timediff(
datetime(2016, 10, 16, 7),
datetime(2016, 10, 16, 10, 30),
).total_seconds())
# Sun 09:00 -> Sun 10:30 (expected: 0 business hours)
self.assertEqual(0, business_timediff(
datetime(2016, 10, 16, 9),
datetime(2016, 10, 16, 10, 30),
).total_seconds())
# Sun 09:30 -> Sun 10:30 (expected: 0 business hour)
self.assertEqual(0, business_timediff(
datetime(2016, 10, 16, 9, 30),
datetime(2016, 10, 16, 10, 30),
).total_seconds())
# Sun 07:00 -> Mon 10:30 (expected: 1.5 business hours)
self.assertEqual(hour * 1.5, business_timediff(
datetime(2016, 10, 16, 7),
datetime(2016, 10, 17, 10, 30),
).total_seconds())
# Sun 09:00 -> Mon 10:30 (expected: 1.5 business hours)
self.assertEqual(hour * 1.5, business_timediff(
datetime(2016, 10, 16, 9),
datetime(2016, 10, 17, 10, 30),
).total_seconds())
# Sun 09:30 -> Mon 10:30 (expected: 1.5 business hour)
self.assertEqual(hour * 1.5, business_timediff(
datetime(2016, 10, 16, 9, 30),
datetime(2016, 10, 17, 10, 30),
).total_seconds())
# Sun 07:00 -> Tue 10:30 (expected: 9.5 business hours)
self.assertEqual(hour * 9.5, business_timediff(
datetime(2016, 10, 16, 7),
datetime(2016, 10, 18, 10, 30),
).total_seconds())
# Sun 09:00 -> Tue 10:30 (expected: 9.5 business hours)
self.assertEqual(hour * 9.5, business_timediff(
datetime(2016, 10, 16, 9),
datetime(2016, 10, 18, 10, 30),
).total_seconds())
# Sun 09:30 -> Tue 10:30 (expected: 9.5 business hour)
self.assertEqual(hour * 9.5, business_timediff(
datetime(2016, 10, 16, 9, 30),
datetime(2016, 10, 18, 10, 30),
).total_seconds())
# Mon 07:00 -> Mon 18:30 (expected: 8 business hours)
self.assertEqual(hour * 8, business_timediff(
datetime(2016, 10, 17, 7),
datetime(2016, 10, 17, 18, 30),
).total_seconds())
# Mon 09:00 -> Mon 18:30 (expected: 8 business hours)
self.assertEqual(hour * 8, business_timediff(
datetime(2016, 10, 17, 9),
datetime(2016, 10, 17, 18, 30),
).total_seconds())
# Mon 09:30 -> Mon 18:30 (expected: 7.5 business hour)
self.assertEqual(hour * 7.5, business_timediff(
datetime(2016, 10, 17, 9, 30),
datetime(2016, 10, 17, 18, 30),
).total_seconds())
# Mon 07:00 -> Tue 18:30 (expected: 16 business hours)
self.assertEqual(hour * 16, business_timediff(
datetime(2016, 10, 17, 7),
datetime(2016, 10, 18, 18, 30),
).total_seconds())
# Mon 09:00 -> Tue 18:30 (expected: 16 business hours)
self.assertEqual(hour * 16, business_timediff(
datetime(2016, 10, 17, 9),
datetime(2016, 10, 18, 18, 30),
).total_seconds())
# Mon 09:30 -> Tue 18:30 (expected: 15 business hour)
self.assertEqual(hour * 15.5, business_timediff(
datetime(2016, 10, 17, 9, 30),
datetime(2016, 10, 18, 18, 30),
).total_seconds())
# Fri 07:00 -> Sat 23:00 (expected: 8 business hours)
self.assertEqual(hour * 8, business_timediff(
datetime(2016, 10, 21, 7, 00),
datetime(2016, 10, 22, 23, 00),
).total_seconds())
# Fri 09:00 -> Sat 23:00 (expected: 8 business hours)
self.assertEqual(hour * 8, business_timediff(
datetime(2016, 10, 21, 9, 00),
datetime(2016, 10, 22, 23, 00),
).total_seconds())
# Fri 14:00 -> Sat 23:00 (expected: 3 business hours)
self.assertEqual(hour * 3, business_timediff(
datetime(2016, 10, 21, 14, 00),
datetime(2016, 10, 22, 23, 00),
).total_seconds())
# Fri 07:00 -> Mon 23:00 (expected: 16 business hours)
self.assertEqual(hour * 16, business_timediff(
datetime(2016, 10, 21, 7, 00),
datetime(2016, 10, 24, 23, 00),
).total_seconds())
# Fri 09:00 -> Mon 23:00 (expected: 16 business hours)
self.assertEqual(hour * 16, business_timediff(
datetime(2016, 10, 21, 9, 00),
datetime(2016, 10, 24, 23, 00),
).total_seconds())
# Fri 14:00 -> Mon 23:00 (expected: 11 business hours)
self.assertEqual(hour * 11, business_timediff(
datetime(2016, 10, 21, 14, 00),
datetime(2016, 10, 24, 23, 00),
).total_seconds())
# Thu 16:00 - Mon 10:00 (expected: 1 (thu) + 8 (fri) + 0 (mon -
# columbus day) = 9)
self.assertEqual(hour * 9, business_timediff(
datetime(2016, 10, 6, 16, 00),
datetime(2016, 10, 10, 10, 00),
).total_seconds())
# Thu 16:00 - Tue 10:00 (expected: 1 (thu) + 8 (fri) + 0 (mon -
# columbus day) + 1 (tue) = 10)
self.assertEqual(hour * 10, business_timediff(
datetime(2016, 10, 6, 16, 00),
datetime(2016, 10, 11, 10, 00),
).total_seconds())
# Thu 16:00 - Tue 20:00 (expected: 1 (thu) + 8 (fri) + 0 (mon -
# columbus day) + 8 (tue) = 17)
self.assertEqual(hour * 17, business_timediff(
datetime(2016, 10, 6, 16, 00),
datetime(2016, 10, 11, 20, 00),
).total_seconds())
# Thu 03:00 - Thu 04:00 (expected: 0)
self.assertEqual(0, business_timediff(
datetime(2016, 10, 6, 3, 00),
datetime(2016, 10, 6, 4, 00),
).total_seconds())
# Thu 03:00 - Thu 09:00 (expected: 0)
self.assertEqual(hour * 0, business_timediff(
datetime(2016, 10, 6, 3, 00),
datetime(2016, 10, 6, 9, 00),
).total_seconds())
# Thu 03:00 - Thu 10:15 (expected: 1.25)
self.assertEqual(hour * 1.25, business_timediff(
datetime(2016, 10, 6, 3, 00),
datetime(2016, 10, 6, 10, 15),
).total_seconds())
# Thu 03:00 - Fri 04:00 (expected: 8)
self.assertEqual(hour * 8, business_timediff(
datetime(2016, 10, 6, 3, 00),
datetime(2016, 10, 7, 4, 00),
).total_seconds())
# Thu 18:15 - Fri 11:00 (expected: 2)
self.assertEqual(hour * 2, business_timediff(
datetime(2016, 10, 6, 18, 00),
datetime(2016, 10, 7, 11, 00),
).total_seconds())
| 39.913043 | 72 | 0.567142 | 1,399 | 10,098 | 3.976412 | 0.055039 | 0.138055 | 0.161064 | 0.161064 | 0.890886 | 0.841093 | 0.821499 | 0.785907 | 0.766673 | 0.718497 | 0 | 0.187666 | 0.29184 | 10,098 | 252 | 73 | 40.071429 | 0.590267 | 0.179937 | 0 | 0.689655 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.350575 | 0 | null | null | 0 | 0.017241 | null | null | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
f6b18e1c95831fba911afa7d5997a8d399dcbce1 | 37,418 | py | Python | dlkit/abstract_osid/assessment/query_inspectors.py | UOC/dlkit | a9d265db67e81b9e0f405457464e762e2c03f769 | [
"MIT"
] | 2 | 2018-02-23T12:16:11.000Z | 2020-10-08T17:54:24.000Z | dlkit/abstract_osid/assessment/query_inspectors.py | UOC/dlkit | a9d265db67e81b9e0f405457464e762e2c03f769 | [
"MIT"
] | 87 | 2017-04-21T18:57:15.000Z | 2021-12-13T19:43:57.000Z | dlkit/abstract_osid/assessment/query_inspectors.py | UOC/dlkit | a9d265db67e81b9e0f405457464e762e2c03f769 | [
"MIT"
] | 1 | 2018-03-01T16:44:25.000Z | 2018-03-01T16:44:25.000Z | """Implementations of assessment abstract base class query_inspectors."""
# pylint: disable=invalid-name
# Method names comply with OSID specification.
# pylint: disable=no-init
# Abstract classes do not define __init__.
# pylint: disable=too-few-public-methods
# Some interfaces are specified as 'markers' and include no methods.
# pylint: disable=too-many-public-methods
# Number of methods are defined in specification
# pylint: disable=too-many-ancestors
# Inheritance defined in specification
# pylint: disable=too-many-arguments
# Argument signature defined in specification.
# pylint: disable=duplicate-code
# All apparent duplicates have been inspected. They aren't.
import abc
class QuestionQueryInspector:
"""The query inspectors provide a means of accessing the match terms of a query.
These interfaces are used to examine the actual query terms used in
a search or that may be used to create a smart catalog. Query
inspectors may be converted to ``OsidQuery`` interfaces for reuse or
modification in the search sessions.
"""
__metaclass__ = abc.ABCMeta
@abc.abstractmethod
def get_question_query_inspector_record(self, question_record_type):
"""Gets the record query inspector corresponding to the given ``Question`` record ``Type``.
:param question_record_type: a question record type
:type question_record_type: ``osid.type.Type``
:return: the question query inspector record
:rtype: ``osid.assessment.records.QuestionQueryInspectorRecord``
:raise: ``NullArgument`` -- ``question_record_type`` is ``null``
:raise: ``OperationFailed`` -- unable to complete request
:raise: ``Unsupported`` -- ``has_record_type(question_record_type)`` is ``false``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.records.QuestionQueryInspectorRecord
class AnswerQueryInspector:
"""The query inspectors provide a means of accessing the match terms of a query.
These interfaces are used to examine the actual query terms used in
a search or that may be used to create a smart catalog. Query
inspectors may be converted to ``OsidQuery`` interfaces for reuse or
modification in the search sessions.
"""
__metaclass__ = abc.ABCMeta
@abc.abstractmethod
def get_answer_query_inspector_record(self, question_record_type):
"""Gets the record query inspector corresponding to the given ``Question`` record ``Type``.
:param question_record_type: a question record type
:type question_record_type: ``osid.type.Type``
:return: the answer query inspector record
:rtype: ``osid.assessment.records.AnswerQueryInspectorRecord``
:raise: ``NullArgument`` -- ``question_record_type`` is ``null``
:raise: ``OperationFailed`` -- unable to complete request
:raise: ``Unsupported`` -- ``has_record_type(question_record_type)`` is ``false``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.records.AnswerQueryInspectorRecord
class ItemQueryInspector:
"""The query inspectors provide a means of accessing the match terms of a query.
These interfaces are used to examine the actual query terms used in
a search or that may be used to create a smart catalog. Query
inspectors may be converted to ``OsidQuery`` interfaces for reuse or
modification in the search sessions.
"""
__metaclass__ = abc.ABCMeta
@abc.abstractmethod
def get_learning_objective_id_terms(self):
"""Gets the learning objective ``Id`` query terms.
:return: the learning objective ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
learning_objective_id_terms = property(fget=get_learning_objective_id_terms)
@abc.abstractmethod
def get_learning_objective_terms(self):
"""Gets the learning objective query terms.
:return: the learning objective terms
:rtype: ``osid.learning.ObjectiveQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.learning.ObjectiveQueryInspector
learning_objective_terms = property(fget=get_learning_objective_terms)
@abc.abstractmethod
def get_question_id_terms(self):
"""Gets the question ``Id`` query terms.
:return: the question ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
question_id_terms = property(fget=get_question_id_terms)
@abc.abstractmethod
def get_question_terms(self):
"""Gets the question query terms.
:return: the question terms
:rtype: ``osid.assessment.QuestionQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.QuestionQueryInspector
question_terms = property(fget=get_question_terms)
@abc.abstractmethod
def get_answer_id_terms(self):
"""Gets the answer ``Id`` query terms.
:return: the answer ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
answer_id_terms = property(fget=get_answer_id_terms)
@abc.abstractmethod
def get_answer_terms(self):
"""Gets the answer query terms.
:return: the answer terms
:rtype: ``osid.assessment.AnswerQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AnswerQueryInspector
answer_terms = property(fget=get_answer_terms)
@abc.abstractmethod
def get_assessment_id_terms(self):
"""Gets the assessment ``Id`` query terms.
:return: the assessment ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_id_terms = property(fget=get_assessment_id_terms)
@abc.abstractmethod
def get_assessment_terms(self):
"""Gets the assessment query terms.
:return: the assessment terms
:rtype: ``osid.assessment.AssessmentQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentQueryInspector
assessment_terms = property(fget=get_assessment_terms)
@abc.abstractmethod
def get_bank_id_terms(self):
"""Gets the bank ``Id`` query terms.
:return: the bank ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
bank_id_terms = property(fget=get_bank_id_terms)
@abc.abstractmethod
def get_bank_terms(self):
"""Gets the bank query terms.
:return: the bank terms
:rtype: ``osid.assessment.BankQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.BankQueryInspector
bank_terms = property(fget=get_bank_terms)
@abc.abstractmethod
def get_item_query_inspector_record(self, item_record_type):
"""Gets the record query inspector corresponding to the given ``Item`` record ``Type``.
:param item_record_type: an item record type
:type item_record_type: ``osid.type.Type``
:return: the item query inspector record
:rtype: ``osid.assessment.records.ItemQueryInspectorRecord``
:raise: ``NullArgument`` -- ``item_record_type`` is ``null``
:raise: ``OperationFailed`` -- unable to complete request
:raise: ``Unsupported`` -- ``has_record_type(item_record_type)`` is ``false``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.records.ItemQueryInspectorRecord
class AssessmentQueryInspector:
"""The query inspectors provide a means of accessing the match terms of a query.
These interfaces are used to examine the actual query terms used in
a search or that may be used to create a smart catalog. Query
inspectors may be converted to ``OsidQuery`` interfaces for reuse or
modification in the search sessions.
"""
__metaclass__ = abc.ABCMeta
@abc.abstractmethod
def get_level_id_terms(self):
"""Gets the level ``Id`` query terms.
:return: the level ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
level_id_terms = property(fget=get_level_id_terms)
@abc.abstractmethod
def get_level_terms(self):
"""Gets the level query terms.
:return: the level terms
:rtype: ``osid.grading.GradeQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.grading.GradeQueryInspector
level_terms = property(fget=get_level_terms)
@abc.abstractmethod
def get_rubric_id_terms(self):
"""Gets the assessment ``Id`` query terms.
:return: the assessment ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
rubric_id_terms = property(fget=get_rubric_id_terms)
@abc.abstractmethod
def get_rubric_terms(self):
"""Gets the assessment query terms.
:return: the assessment terms
:rtype: ``osid.assessment.AssessmentQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentQueryInspector
rubric_terms = property(fget=get_rubric_terms)
@abc.abstractmethod
def get_item_id_terms(self):
"""Gets the item ``Id`` query terms.
:return: the item ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
item_id_terms = property(fget=get_item_id_terms)
@abc.abstractmethod
def get_item_terms(self):
"""Gets the item query terms.
:return: the item terms
:rtype: ``osid.assessment.ItemQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.ItemQueryInspector
item_terms = property(fget=get_item_terms)
@abc.abstractmethod
def get_assessment_offered_id_terms(self):
"""Gets the assessment offered ``Id`` query terms.
:return: the assessment offered ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_offered_id_terms = property(fget=get_assessment_offered_id_terms)
@abc.abstractmethod
def get_assessment_offered_terms(self):
"""Gets the assessment offered query terms.
:return: the assessment offered terms
:rtype: ``osid.assessment.AssessmentOfferedQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentOfferedQueryInspector
assessment_offered_terms = property(fget=get_assessment_offered_terms)
@abc.abstractmethod
def get_assessment_taken_id_terms(self):
"""Gets the assessment taken ``Id`` query terms.
:return: the assessment taken ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_taken_id_terms = property(fget=get_assessment_taken_id_terms)
@abc.abstractmethod
def get_assessment_taken_terms(self):
"""Gets the assessment taken query terms.
:return: the assessment taken terms
:rtype: ``osid.assessment.AssessmentTakenQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentTakenQueryInspector
assessment_taken_terms = property(fget=get_assessment_taken_terms)
@abc.abstractmethod
def get_bank_id_terms(self):
"""Gets the bank ``Id`` query terms.
:return: the bank ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
bank_id_terms = property(fget=get_bank_id_terms)
@abc.abstractmethod
def get_bank_terms(self):
"""Gets the bank query terms.
:return: the bank terms
:rtype: ``osid.assessment.BankQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.BankQueryInspector
bank_terms = property(fget=get_bank_terms)
@abc.abstractmethod
def get_assessment_query_inspector_record(self, assessment_record_type):
"""Gets the assessment query inspector record corresponding to the given ``Assessment`` record ``Type``.
:param assessment_record_type: an assessment record type
:type assessment_record_type: ``osid.type.Type``
:return: the assessment query inspector record
:rtype: ``osid.assessment.records.AssessmentQueryInspectorRecord``
:raise: ``NullArgument`` -- ``assessment_record_type`` is ``null``
:raise: ``OperationFailed`` -- unable to complete request
:raise: ``Unsupported`` -- ``has_record_type(assessment_record_type)`` is ``false``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.records.AssessmentQueryInspectorRecord
class AssessmentOfferedQueryInspector:
"""The query inspectors provide a means of accessing the match terms of a query.
These interfaces are used to examine the actual query terms used in
a search or that may be used to create a smart catalog. Query
inspectors may be converted to ``OsidQuery`` interfaces for reuse or
modification in the search sessions.
"""
__metaclass__ = abc.ABCMeta
@abc.abstractmethod
def get_assessment_id_terms(self):
"""Gets the assessment ``Id`` query terms.
:return: the assessment ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_id_terms = property(fget=get_assessment_id_terms)
@abc.abstractmethod
def get_assessment_terms(self):
"""Gets the assessment query terms.
:return: the assessment terms
:rtype: ``osid.assessment.AssessmentQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentQueryInspector
assessment_terms = property(fget=get_assessment_terms)
@abc.abstractmethod
def get_level_id_terms(self):
"""Gets the level ``Id`` query terms.
:return: the level ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
level_id_terms = property(fget=get_level_id_terms)
@abc.abstractmethod
def get_level_terms(self):
"""Gets the level query terms.
:return: the level terms
:rtype: ``osid.grading.GradeQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.grading.GradeQueryInspector
level_terms = property(fget=get_level_terms)
@abc.abstractmethod
def get_items_sequential_terms(self):
"""Gets the items sequential query terms.
:return: the boolean terms
:rtype: ``osid.search.terms.BooleanTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.BooleanTerm
items_sequential_terms = property(fget=get_items_sequential_terms)
@abc.abstractmethod
def get_items_shuffled_terms(self):
"""Gets the items shuffled query terms.
:return: the boolean terms
:rtype: ``osid.search.terms.BooleanTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.BooleanTerm
items_shuffled_terms = property(fget=get_items_shuffled_terms)
@abc.abstractmethod
def get_start_time_terms(self):
"""Gets the start time query terms.
:return: the start time terms
:rtype: ``osid.search.terms.DateTimeTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.DateTimeTerm
start_time_terms = property(fget=get_start_time_terms)
@abc.abstractmethod
def get_deadline_terms(self):
"""Gets the deadline query terms.
:return: the deadline terms
:rtype: ``osid.search.terms.DateTimeTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.DateTimeTerm
deadline_terms = property(fget=get_deadline_terms)
@abc.abstractmethod
def get_duration_terms(self):
"""Gets the deadline query terms.
:return: the duration terms
:rtype: ``osid.search.terms.DurationTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.DurationTerm
duration_terms = property(fget=get_duration_terms)
@abc.abstractmethod
def get_score_system_id_terms(self):
"""Gets the grade system ``Id`` query terms.
:return: the grade system ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
score_system_id_terms = property(fget=get_score_system_id_terms)
@abc.abstractmethod
def get_score_system_terms(self):
"""Gets the grade system query terms.
:return: the grade system terms
:rtype: ``osid.grading.GradeSystemQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.grading.GradeSystemQueryInspector
score_system_terms = property(fget=get_score_system_terms)
@abc.abstractmethod
def get_grade_system_id_terms(self):
"""Gets the grade system ``Id`` query terms.
:return: the grade system ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
grade_system_id_terms = property(fget=get_grade_system_id_terms)
@abc.abstractmethod
def get_grade_system_terms(self):
"""Gets the grade system query terms.
:return: the grade system terms
:rtype: ``osid.grading.GradeSystemQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.grading.GradeSystemQueryInspector
grade_system_terms = property(fget=get_grade_system_terms)
@abc.abstractmethod
def get_rubric_id_terms(self):
"""Gets the assessment offered ``Id`` query terms.
:return: the assessment offered ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
rubric_id_terms = property(fget=get_rubric_id_terms)
@abc.abstractmethod
def get_rubric_terms(self):
"""Gets the assessment query terms.
:return: the assessment offered terms
:rtype: ``osid.assessment.AssessmentOfferedQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentOfferedQueryInspector
rubric_terms = property(fget=get_rubric_terms)
@abc.abstractmethod
def get_assessment_taken_id_terms(self):
"""Gets the assessment taken ``Id`` query terms.
:return: the assessment taken ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_taken_id_terms = property(fget=get_assessment_taken_id_terms)
@abc.abstractmethod
def get_assessment_taken_terms(self):
"""Gets the assessment taken query terms.
:return: the assessment taken terms
:rtype: ``osid.assessment.AssessmentTakenQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentTakenQueryInspector
assessment_taken_terms = property(fget=get_assessment_taken_terms)
@abc.abstractmethod
def get_bank_id_terms(self):
"""Gets the bank ``Id`` query terms.
:return: the bank ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
bank_id_terms = property(fget=get_bank_id_terms)
@abc.abstractmethod
def get_bank_terms(self):
"""Gets the bank query terms.
:return: the bank terms
:rtype: ``osid.assessment.BankQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.BankQueryInspector
bank_terms = property(fget=get_bank_terms)
@abc.abstractmethod
def get_assessment_offered_query_inspector_record(self, assessment_offered_record_type):
"""Gets the assessment offered query inspector record corresponding to the given ``AssessmentOffered`` record ``Type``.
:param assessment_offered_record_type: an assessment offered record type
:type assessment_offered_record_type: ``osid.type.Type``
:return: the assessment offered query inspector record
:rtype: ``osid.assessment.records.AssessmentOfferedQueryInspectorRecord``
:raise: ``NullArgument`` -- ``assessment_offered_record_type`` is ``null``
:raise: ``OperationFailed`` -- unable to complete request
:raise: ``Unsupported`` -- ``has_record_type(assessment_offered_record_type)`` is ``false``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.records.AssessmentOfferedQueryInspectorRecord
class AssessmentTakenQueryInspector:
"""The query inspectors provide a means of accessing the match terms of a query.
These interfaces are used to examine the actual query terms used in
a search or that may be used to create a smart catalog. Query
inspectors may be converted to ``OsidQuery`` interfaces for reuse or
modification in the search sessions.
"""
__metaclass__ = abc.ABCMeta
@abc.abstractmethod
def get_assessment_offered_id_terms(self):
"""Gets the assessment offered ``Id`` query terms.
:return: the assessment offered ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_offered_id_terms = property(fget=get_assessment_offered_id_terms)
@abc.abstractmethod
def get_assessment_offered_terms(self):
"""Gets the assessment offered query terms.
:return: the assessment offered terms
:rtype: ``osid.assessment.AssessmentOfferedQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentOfferedQueryInspector
assessment_offered_terms = property(fget=get_assessment_offered_terms)
@abc.abstractmethod
def get_taker_id_terms(self):
"""Gets the resource ``Id`` query terms.
:return: the resource ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
taker_id_terms = property(fget=get_taker_id_terms)
@abc.abstractmethod
def get_taker_terms(self):
"""Gets the resource query terms.
:return: the resource terms
:rtype: ``osid.resource.ResourceQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.resource.ResourceQueryInspector
taker_terms = property(fget=get_taker_terms)
@abc.abstractmethod
def get_taking_agent_id_terms(self):
"""Gets the agent ``Id`` query terms.
:return: the agent ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
taking_agent_id_terms = property(fget=get_taking_agent_id_terms)
@abc.abstractmethod
def get_taking_agent_terms(self):
"""Gets the agent query terms.
:return: the agent terms
:rtype: ``osid.authentication.AgentQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.authentication.AgentQueryInspector
taking_agent_terms = property(fget=get_taking_agent_terms)
@abc.abstractmethod
def get_actual_start_time_terms(self):
"""Gets the start time query terms.
:return: the start time terms
:rtype: ``osid.search.terms.DateTimeTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.DateTimeTerm
actual_start_time_terms = property(fget=get_actual_start_time_terms)
@abc.abstractmethod
def get_completion_time_terms(self):
"""Gets the completion time query terms.
:return: the completion time terms
:rtype: ``osid.search.terms.DateTimeTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.DateTimeTerm
completion_time_terms = property(fget=get_completion_time_terms)
@abc.abstractmethod
def get_time_spent_terms(self):
"""Gets the time spent query terms.
:return: the time spent terms
:rtype: ``osid.search.terms.DurationTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.DurationTerm
time_spent_terms = property(fget=get_time_spent_terms)
@abc.abstractmethod
def get_score_system_id_terms(self):
"""Gets the grade system ``Id`` query terms.
:return: the grade system ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
score_system_id_terms = property(fget=get_score_system_id_terms)
@abc.abstractmethod
def get_score_system_terms(self):
"""Gets the grade system query terms.
:return: the grade system terms
:rtype: ``osid.grading.GradeSystemQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.grading.GradeSystemQueryInspector
score_system_terms = property(fget=get_score_system_terms)
@abc.abstractmethod
def get_score_terms(self):
"""Gets the score query terms.
:return: the score terms
:rtype: ``osid.search.terms.DecimalRangeTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.DecimalRangeTerm
score_terms = property(fget=get_score_terms)
@abc.abstractmethod
def get_grade_id_terms(self):
"""Gets the grade ``Id`` query terms.
:return: the grade ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
grade_id_terms = property(fget=get_grade_id_terms)
@abc.abstractmethod
def get_grade_terms(self):
"""Gets the grade query terms.
:return: the grade terms
:rtype: ``osid.grading.GradeQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.grading.GradeQueryInspector
grade_terms = property(fget=get_grade_terms)
@abc.abstractmethod
def get_feedback_terms(self):
"""Gets the comment query terms.
:return: the comment terms
:rtype: ``osid.search.terms.StringTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.StringTerm
feedback_terms = property(fget=get_feedback_terms)
@abc.abstractmethod
def get_rubric_id_terms(self):
"""Gets the assessment taken ``Id`` query terms.
:return: the assessment taken ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
rubric_id_terms = property(fget=get_rubric_id_terms)
@abc.abstractmethod
def get_rubric_terms(self):
"""Gets the assessment taken query terms.
:return: the assessment taken terms
:rtype: ``osid.assessment.AssessmentTakenQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentTakenQueryInspector
rubric_terms = property(fget=get_rubric_terms)
@abc.abstractmethod
def get_bank_id_terms(self):
"""Gets the bank ``Id`` query terms.
:return: the bank ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
bank_id_terms = property(fget=get_bank_id_terms)
@abc.abstractmethod
def get_bank_terms(self):
"""Gets the bank query terms.
:return: the bank terms
:rtype: ``osid.assessment.BankQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.BankQueryInspector
bank_terms = property(fget=get_bank_terms)
@abc.abstractmethod
def get_assessment_taken_query_inspector_record(self, assessment_taken_record_type):
"""Gets the assessment taken query inspector record corresponding to the given ``AssessmentTaken`` record ``Type``.
:param assessment_taken_record_type: an assessment taken record type
:type assessment_taken_record_type: ``osid.type.Type``
:return: the assessment taken query inspector record
:rtype: ``osid.assessment.records.AssessmentTakenQueryInspectorRecord``
:raise: ``NullArgument`` -- ``assessment_taken_record_type`` is ``null``
:raise: ``OperationFailed`` -- unable to complete request
:raise: ``Unsupported`` -- ``has_record_type(assessment_taken_record_type)`` is ``false``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.records.AssessmentTakenQueryInspectorRecord
class BankQueryInspector:
"""The query inspectors provide a means of accessing the match terms of a query.
These interfaces are used to examine the actual query terms used in
a search or that may be used to create a smart catalog. Query
inspectors may be converted to ``OsidQuery`` interfaces for reuse or
modification in the search sessions.
"""
__metaclass__ = abc.ABCMeta
@abc.abstractmethod
def get_item_id_terms(self):
"""Gets the item ``Id`` query terms.
:return: the item ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
item_id_terms = property(fget=get_item_id_terms)
@abc.abstractmethod
def get_item_terms(self):
"""Gets the item query terms.
:return: the item query terms
:rtype: ``osid.assessment.ItemQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.ItemQueryInspector
item_terms = property(fget=get_item_terms)
@abc.abstractmethod
def get_assessment_id_terms(self):
"""Gets the assessment ``Id`` query terms.
:return: the assessment ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_id_terms = property(fget=get_assessment_id_terms)
@abc.abstractmethod
def get_assessment_terms(self):
"""Gets the assessment query terms.
:return: the assessment terms
:rtype: ``osid.assessment.AssessmentQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentQueryInspector
assessment_terms = property(fget=get_assessment_terms)
@abc.abstractmethod
def get_assessment_offered_id_terms(self):
"""Gets the assessment offered ``Id`` query terms.
:return: the assessment offered ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
assessment_offered_id_terms = property(fget=get_assessment_offered_id_terms)
@abc.abstractmethod
def get_assessment_offered_terms(self):
"""Gets the assessment offered query terms.
:return: the assessment offered terms
:rtype: ``osid.assessment.AssessmentOfferedQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.AssessmentOfferedQueryInspector
assessment_offered_terms = property(fget=get_assessment_offered_terms)
@abc.abstractmethod
def get_ancestor_bank_id_terms(self):
"""Gets the ancestor bank ``Id`` query terms.
:return: the ancestor bank ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
ancestor_bank_id_terms = property(fget=get_ancestor_bank_id_terms)
@abc.abstractmethod
def get_ancestor_bank_terms(self):
"""Gets the ancestor bank query terms.
:return: the ancestor bank terms
:rtype: ``osid.assessment.BankQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.BankQueryInspector
ancestor_bank_terms = property(fget=get_ancestor_bank_terms)
@abc.abstractmethod
def get_descendant_bank_id_terms(self):
"""Gets the descendant bank ``Id`` query terms.
:return: the descendant bank ``Id`` terms
:rtype: ``osid.search.terms.IdTerm``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.search.terms.IdTerm
descendant_bank_id_terms = property(fget=get_descendant_bank_id_terms)
@abc.abstractmethod
def get_descendant_bank_terms(self):
"""Gets the descendant bank query terms.
:return: the descendant bank terms
:rtype: ``osid.assessment.BankQueryInspector``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.BankQueryInspector
descendant_bank_terms = property(fget=get_descendant_bank_terms)
@abc.abstractmethod
def get_bank_query_inspector_record(self, bank_record_type):
"""Gets the bank query inspector record corresponding to the given ``Bank`` record ``Type``.
:param bank_record_type: a bank record type
:type bank_record_type: ``osid.type.Type``
:return: the bank query inspector record
:rtype: ``osid.assessment.records.BankQueryInspectorRecord``
:raise: ``NullArgument`` -- ``bank_record_type`` is ``null``
:raise: ``OperationFailed`` -- unable to complete request
:raise: ``Unsupported`` -- ``has_record_type(bank_record_type)`` is ``false``
*compliance: mandatory -- This method must be implemented.*
"""
return # osid.assessment.records.BankQueryInspectorRecord
| 29.462992 | 127 | 0.669704 | 4,166 | 37,418 | 5.849496 | 0.043207 | 0.03447 | 0.049243 | 0.072674 | 0.89183 | 0.837704 | 0.78485 | 0.74246 | 0.737412 | 0.726989 | 0 | 0 | 0.234165 | 37,418 | 1,269 | 128 | 29.48621 | 0.850398 | 0.586188 | 0 | 0.775316 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.243671 | false | 0 | 0.003165 | 0 | 0.756329 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 9 |
125ea6938178733083cd03c81c6365d92f7d5879 | 2,631 | py | Python | src/pages/header.py | ImpulsoGov/farolcovid | 4d2d889984f8216589d399fa7e45c2d0f0304308 | [
"MIT"
] | 28 | 2020-06-11T12:38:26.000Z | 2021-11-22T13:55:13.000Z | src/pages/header.py | ImpulsoGov/simulacovid | 4d2d889984f8216589d399fa7e45c2d0f0304308 | [
"MIT"
] | 62 | 2020-04-02T02:07:37.000Z | 2020-06-02T15:30:48.000Z | src/pages/header.py | ImpulsoGov/farolcovid | 4d2d889984f8216589d399fa7e45c2d0f0304308 | [
"MIT"
] | 18 | 2020-06-11T12:38:15.000Z | 2022-03-04T11:14:45.000Z | import streamlit as st
import utils
import os
def genHeader(active):
"""
This is a function that returns the "Footer" session
"""
if os.getenv("IS_HEROKU") == "TRUE":
urlpath = os.getenv("urlpath")
elif os.getenv("IS_DEV") == "TRUE":
urlpath = 'http://localhost:8501/'
else:
urlpath = 'https://farolcovid.coronacidades.org/'
if active=="1":
st.write(
f"""
<div class="conteudo" id="navbar">
<a> </a>
<a href="{urlpath}?page=Inicio">Início</a>
<a class="active" href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a>
<a href="{urlpath}?page=Quem-Somos">Quem somos?</a>
<a href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a>
<a href="{urlpath}?page=Vacinometro">Vacinômetro</a>
</div>
""",
unsafe_allow_html=True,
)
elif active=="2":
st.write(
f"""
<div class="conteudo" id="navbar">
<a> </a>
<a href="{urlpath}?page=Inicio">Início</a>
<a href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a>
<a class="active" href="{urlpath}?page=Quem-Somos">Quem somos?</a>
<a href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a>
<a href="{urlpath}?page=Vacinometro">Vacinômetro</a>
</div>
""",
unsafe_allow_html=True,
)
elif active=="3":
st.write(
f"""
<div class="conteudo" id="navbar">
<a> </a>
<a href="{urlpath}?page=Inicio">Início</a>
<a href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a>
<a href="{urlpath}?page=Quem-Somos">Quem somos?</a>
<a class="active" href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a>
<a href="{urlpath}?page=Vacinometro">Vacinômetro</a>
</div>
""",
unsafe_allow_html=True,
)
elif active=="4":
st.write(
f"""
<div class="conteudo" id="navbar">
<a> </a>
<a href="{urlpath}?page=Inicio">Início</a>
<a href="{urlpath}?page=Metodologia">Modelos, limitações e fontes</a>
<a href="{urlpath}?page=Quem-Somos">Quem somos?</a>
<a href="{urlpath}?page=Estudo-Vacinacao">Estudo Vacinação</a>
<a class="active" href="{urlpath}?page=Vacinometro">Vacinômetro</a>
</div>
""",
unsafe_allow_html=True,
)
if __name__ == "__main__":
main()
| 34.618421 | 96 | 0.530217 | 302 | 2,631 | 4.559603 | 0.218543 | 0.029049 | 0.217865 | 0.151053 | 0.814815 | 0.814815 | 0.814815 | 0.782861 | 0.782861 | 0.782861 | 0 | 0.00429 | 0.291144 | 2,631 | 75 | 97 | 35.08 | 0.734048 | 0.019764 | 0 | 0.647059 | 0 | 0.044118 | 0.74374 | 0.331768 | 0 | 0 | 0 | 0 | 0 | 1 | 0.014706 | false | 0 | 0.044118 | 0 | 0.058824 | 0 | 0 | 0 | 0 | null | 0 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
89f8b30e153ac96b1125378ffc1d08a896cac643 | 59,727 | py | Python | calaccess_raw/migrations/0017_auto_20210422_0047.py | california-civic-data-coalition/django-calaccess-raw-data | f2e5adbbb295326a88c3c9a505b6fe4d4377328f | [
"MIT"
] | 48 | 2015-01-10T18:06:03.000Z | 2022-01-27T16:48:29.000Z | calaccess_raw/migrations/0017_auto_20210422_0047.py | world-admin/django-calaccess-raw-data | f2e5adbbb295326a88c3c9a505b6fe4d4377328f | [
"MIT"
] | 1,193 | 2015-01-07T06:35:20.000Z | 2021-06-19T11:43:20.000Z | calaccess_raw/migrations/0017_auto_20210422_0047.py | world-admin/django-calaccess-raw-data | f2e5adbbb295326a88c3c9a505b6fe4d4377328f | [
"MIT"
] | 163 | 2015-01-10T18:06:09.000Z | 2022-01-14T00:29:12.000Z | # Generated by Django 3.2 on 2021-04-22 00:47
import calaccess_raw.annotations.documents
import calaccess_raw.annotations.forms
import calaccess_raw.fields
from django.db import migrations, models
class Migration(migrations.Migration):
dependencies = [
('calaccess_raw', '0016_auto_20200818_0542'),
]
operations = [
migrations.AlterField(
model_name='acronymscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='addresscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='ballotmeasurescd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvr2campaigndisclosurecd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvr2lobbydisclosurecd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=57), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=71)], help_text='Name of the source filing form or schedule', max_length=4),
),
migrations.AlterField(
model_name='cvr2lobbydisclosurecd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvr2registrationcd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=72), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=87)], help_text='Name of the source filing form or schedule', max_length=10),
),
migrations.AlterField(
model_name='cvr2registrationcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvr2socd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 400 (Statement of Organization (Slate Mailer Organization)): Part 3, Individuals Who Authorize Contents Of Slate Mailers'), ('', 'Form 410 (Statement of Organization (Recipient Committee)): Part 4, Type of Committee')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=38), calaccess_raw.annotations.documents.DocumentCloud(end_page=46, id='2712033-Cal-Format-1-05-02', start_page=45), calaccess_raw.annotations.documents.DocumentCloud(end_page=59, id='2712034-Cal-Format-201', start_page=58)], help_text="Form type of the filing the record is included in. This must equal the form_type of the parent filing's cover (CVR) record.", max_length=4, verbose_name='form type'),
),
migrations.AlterField(
model_name='cvr2socd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvr3verificationinfocd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvrcampaigndisclosurecd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvre530cd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Electronic Form 530: Electronic Issue Advocacy Report')], db_column='FORM_TYPE', db_index=True, help_text='Name of the source filing form or schedule', max_length=4, verbose_name='form type'),
),
migrations.AlterField(
model_name='cvre530cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvrf470cd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 470: Campaign Disclosure Statement, Short Form (Officeholders and Candidates)')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=22), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=29)], help_text='Type of Filing or Formset. The value of this column will always be equal to F470.', max_length=4),
),
migrations.AlterField(
model_name='cvrf470cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvrlobbydisclosurecd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=53), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=66)], help_text='Name of the source filing form or schedule', max_length=4),
),
migrations.AlterField(
model_name='cvrlobbydisclosurecd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvrregistrationcd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=68), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=82)], help_text='Name of the source filing form or schedule', max_length=4),
),
migrations.AlterField(
model_name='cvrregistrationcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='cvrsocd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='debtcd',
name='expn_code',
field=calaccess_raw.fields.CharField(blank=True, choices=[('CMP', 'campaign paraphernalia/miscellaneous'), ('CNS', 'campaign consultants'), ('CTB', 'contribution (if nonmonetary, explain)*'), ('CVC', 'civic donations'), ('FIL', 'candidate filing/ballot feeds'), ('FND', 'fundraising events'), ('IKD', 'In-kind contribution (nonmonetary)'), ('IND', 'independent expenditure supporting/opposing others (explain)*'), ('LEG', 'legal defense'), ('LIT', 'campaign literature and mailings'), ('LON', 'loan'), ('MBR', 'member communications'), ('MON', 'monetary contribution'), ('MTG', 'meetings and appearances'), ('OFC', 'office expenses'), ('PET', 'petition circulating'), ('PHO', 'phone banks'), ('POL', 'polling and survey research'), ('POS', 'postage, delivery and messenger services'), ('PRO', 'professional services (legal, accounting)'), ('PRT', 'print ads'), ('RAD', 'radio airtime and production costs'), ('RFD', 'returned contributions'), ('SAL', 'campaign workers salaries'), ('TEL', 'T.V. or cable airtime and production costs'), ('TRC', 'candidate travel, lodging and meals (explain)'), ('TRS', 'staff/spouse travel, lodging and meals (explain)'), ('TSF', 'transfer between committees of the same candidate/sponsor'), ('VOT', 'voter registration'), ('WEB', 'information technology costs (internet, e-mail)'), ('Fnd', 'fundraising events'), ('ofc', 'office expenses'), ("'CN", 'campaign consultants'), ('*', 'Unknown'), ('AIR', 'Unknown'), ('BUS', 'Unknown'), ('C', 'Unknown'), ('CAM', 'Unknown'), ('CC', 'Unknown'), ('COM', 'Unknown'), ('CON', 'Unknown'), ('CSN', 'Unknown'), ('DEP', 'Unknown'), ('EVE', 'Unknown'), ('F', 'Unknown'), ('FED', 'Unknown'), ('fns', 'Unknown'), ('G', 'Unknown'), ('GGG', 'Unknown'), ('HOT', 'Unknown'), ('L', 'Unknown'), ('LDF', 'Unknown'), ('MEE', 'Unknown'), ('N', 'Unknown'), ('O', 'Unknown'), ('OTH', 'Unknown'), ('P', 'Unknown'), ('PEN', 'Unknown'), ('S', 'Unknown'), ('SPE', 'Unknown'), ('STA', 'Unknown'), ('T', 'Unknown'), ('TAX', 'Unknown'), ('TRA', 'Unknown'), ('V', 'Unknown'), ('X', 'Unknown')], db_column='EXPN_CODE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=11), calaccess_raw.annotations.documents.DocumentCloud(end_page=14, id='2712034-Cal-Format-201', start_page=13)], help_text='Expense Code', max_length=4, verbose_name='expense code'),
),
migrations.AlterField(
model_name='debtcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='efsfilinglogcd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 400: Statement of Organization (Slate Mailer Organization)'), ('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 402: Statement of Termination (Slate Mailer Organization)'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('BADFORMAT 253', 'Unknown'), ('form', 'Unknown')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(end_page=8, id='2711624-Overview', start_page=4)], help_text='Name of the source filing form or schedule', max_length=250, verbose_name='form type'),
),
migrations.AlterField(
model_name='efsfilinglogcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='expncd',
name='expn_code',
field=calaccess_raw.fields.CharField(blank=True, choices=[('CMP', 'campaign paraphernalia/miscellaneous'), ('CNS', 'campaign consultants'), ('CTB', 'contribution (if nonmonetary, explain)*'), ('CVC', 'civic donations'), ('FIL', 'candidate filing/ballot feeds'), ('FND', 'fundraising events'), ('IKD', 'In-kind contribution (nonmonetary)'), ('IND', 'independent expenditure supporting/opposing others (explain)*'), ('LEG', 'legal defense'), ('LIT', 'campaign literature and mailings'), ('LON', 'loan'), ('MBR', 'member communications'), ('MON', 'monetary contribution'), ('MTG', 'meetings and appearances'), ('OFC', 'office expenses'), ('PET', 'petition circulating'), ('PHO', 'phone banks'), ('POL', 'polling and survey research'), ('POS', 'postage, delivery and messenger services'), ('PRO', 'professional services (legal, accounting)'), ('PRT', 'print ads'), ('RAD', 'radio airtime and production costs'), ('RFD', 'returned contributions'), ('SAL', 'campaign workers salaries'), ('TEL', 'T.V. or cable airtime and production costs'), ('TRC', 'candidate travel, lodging and meals (explain)'), ('TRS', 'staff/spouse travel, lodging and meals (explain)'), ('TSF', 'transfer between committees of the same candidate/sponsor'), ('VOT', 'voter registration'), ('WEB', 'information technology costs (internet, e-mail)'), ('ctb', 'contribution (if nonmonetary, explain)*'), ('ikd', 'In-kind contribution (nonmonetary)'), ('Mon', 'monetary contribution'), ('ofc', 'office expenses'), ('OFc', 'office expenses'), ('Ofc', 'office expenses'), ('', 'Unknown'), ('*', 'Unknown'), ('0', 'Unknown'), ('001', 'Unknown'), ('011', 'Unknown'), ('200', 'Unknown'), ('401', 'Unknown'), ('ADV', 'Unknown'), ('ANN', 'Unknown'), ('APR', 'Unknown'), ('AUG', 'Unknown'), ('AUT', 'Unknown'), ('Ban', 'Unknown'), ('BAN', 'Unknown'), ('BOO', 'Unknown'), ('BOX', 'Unknown'), ('C', 'Unknown'), ('CAT', 'Unknown'), ('CC', 'Unknown'), ('CHE', 'Unknown'), ('CIV', 'Unknown'), ('CNT', 'Unknown'), ('CON', 'Unknown'), ('COP', 'Unknown'), ('CRE', 'Unknown'), ('CSN', 'Unknown'), ('CT', 'Unknown'), (',CT', 'Unknown'), ('.CT', 'Unknown'), ('CTN', 'Unknown'), ('CVD', 'Unknown'), ('DAT', 'Unknown'), ('DEC', 'Unknown'), ('Dem', 'Unknown'), ('DIN', 'Unknown'), ('Don', 'Unknown'), ('DON', 'Unknown'), ('Ear', 'Unknown'), ('EIM', 'Unknown'), ('EMP', 'Unknown'), ('F', 'Unknown'), ('FAX', 'Unknown'), ('FDN', 'Unknown'), ('FED', 'Unknown'), ('FEE', 'Unknown'), ('FIN', 'Unknown'), ('Fun', 'Unknown'), ('FUN', 'Unknown'), ('G', 'Unknown'), ('GEN', 'Unknown'), ('GGG', 'Unknown'), ('GOT', 'Unknown'), ('IEs', 'Unknown'), ('IN-', 'Unknown'), ('Ina', 'Unknown'), ('INK', 'Unknown'), ('INS', 'Unknown'), ('ITE', 'Unknown'), ('JAN', 'Unknown'), ('JUL', 'Unknown'), ('JUN', 'Unknown'), ('KIC', 'Unknown'), ('L', 'Unknown'), ('LEV', 'Unknown'), ('Lit', 'Unknown'), ('LN#', 'Unknown'), ('LOG', 'Unknown'), ('M', 'Unknown'), ('MAI', 'Unknown'), ('Mar', 'Unknown'), ('MAR', 'Unknown'), ('MAY', 'Unknown'), ('MED', 'Unknown'), ('MEE', 'Unknown'), ('MGT', 'Unknown'), ('Mis', 'Unknown'), ('MRB', 'Unknown'), ('NGP', 'Unknown'), ('NON', 'Unknown'), ('NOT', 'Unknown'), ('NOV', 'Unknown'), ('O', 'Unknown'), ('OCT', 'Unknown'), ('.OF', 'Unknown'), ('OFF', 'Unknown'), ('OPE', 'Unknown'), ('OTH', 'Unknown'), ('P', 'Unknown'), ('Pac', 'Unknown'), ('PAI', 'Unknown'), ('PAR', 'Unknown'), ('PAY', 'Unknown'), ('PEN', 'Unknown'), ('PMT', 'Unknown'), ('.PO', 'Unknown'), ('Pos', 'Unknown'), ('PRE', 'Unknown'), ('PRI', 'Unknown'), ('PRP', 'Unknown'), ('R', 'Unknown'), ('.Re', 'Unknown'), ('.RE', 'Unknown'), ('REF', 'Unknown'), ('REI', 'Unknown'), ('RFP', 'Unknown'), ('S', 'Unknown'), ('S-A', 'Unknown'), ('SA', 'Unknown'), ('Sal', 'Unknown'), ('S C', 'Unknown'), ('S.C', 'Unknown'), ('SCU', 'Unknown'), ('SEE', 'Unknown'), ('SEN', 'Unknown'), ('SEP', 'Unknown'), ('S.M.', 'Unknown'), ('SOF', 'Unknown'), ('SWI', 'Unknown'), ('T', 'Unknown'), ('TAX', 'Unknown'), ('TB', 'Unknown'), ('TB,', 'Unknown'), ('TIC', 'Unknown'), ('Tor', 'Unknown'), ('TRA', 'Unknown'), ('TRF', 'Unknown'), ('TRV', 'Unknown'), ('UN', 'Unknown'), ('UTI', 'Unknown'), ('V', 'Unknown'), ('VEN', 'Unknown'), ('-VO', 'Unknown'), ('VOI', 'Unknown'), ('VOY', 'Unknown'), ('WI', 'Unknown'), ('x', 'Unknown'), ('X', 'Unknown'), ('S-6', 'Unknown'), ('S.M', 'Unknown'), ('S-4', 'Unknown'), ('SA:', 'Unknown'), ('100', 'Unknown'), ('RFN', 'Unknown'), ('REN', 'Unknown'), ('003', 'Unknown'), ('S-1', 'Unknown'), ('08', 'Unknown')], db_column='EXPN_CODE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=11), calaccess_raw.annotations.documents.DocumentCloud(end_page=14, id='2712034-Cal-Format-201', start_page=13)], help_text='The type of expenditure', max_length=4, verbose_name='expense code'),
),
migrations.AlterField(
model_name='expncd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('F450P5', 'Form 450 (Campaign Disclosure Statement, Short Form (Recipient Committee)): Part 5, Payments Made'), ('D', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule D, Summary of Expenditures Supporting / Opposing Other Candidates, Measures and Committees'), ('E', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule E, Payments Made'), ('G', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule G, Payments Made by an Agent or Independent Contractor (on Behalf of This Committee)'), ('F461P5', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 5, Contributions (Including Loans, Forgiveness of Loans, and LoanGuarantees) and Expenditures Made'), ('F465P3', 'Form 465 (Supplemental Independent Expenditure Report): Part 3, Independent Expenditures Made'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=31), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=42)], help_text='Name of the source filing form or schedule', max_length=6),
),
migrations.AlterField(
model_name='expncd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='f495p2cd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 495: Supplemental Pre-Election Campaign Statement (Recipient Committee)')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=26), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=35)], help_text='Name of the source filing form to which the Form 495 is attached (must equal Form_Type in CVR record)', max_length=4),
),
migrations.AlterField(
model_name='f495p2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='f501502cd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 501: Candidate Intention Statement'), ('', 'Form 502: Campaign Bank Account Statement')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711614-CalAccessTablesWeb', start_page=58)], help_text='Name of the source filing form or schedule', max_length=4),
),
migrations.AlterField(
model_name='f501502cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='f690p2cd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=58), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=72)], help_text='Name of the source filing form or schedule', max_length=4),
),
migrations.AlterField(
model_name='f690p2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='fileracronymscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='fileraddresscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filerethicsclasscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filerfilingscd',
name='form_id',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 400: Statement of Organization (Slate Mailer Organization)'), ('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 402: Statement of Termination (Slate Mailer Organization)'), ('', 'Form 405: Amendment to Campaign Disclosure Statement'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 415: Title Unknown'), ('', 'Form 416: Title Unknown'), ('', 'Form 419: Campaign Disclosure Statement, Long Form (Ballot Measure Committee)'), ('', 'Form 420: Campaign Disclosure Statement, Long Form (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 430: Title Unknown'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 470: Campaign Disclosure Statement, Short Form (Officeholders and Candidates)'), ('', 'Form 490: Campaign Disclosure Statement, Long Form (Officeholders and Candidates)'), ('', 'Form 495: Supplemental Pre-Election Campaign Statement (Recipient Committee)'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 501: Candidate Intention Statement'), ('', 'Form 502: Campaign Bank Account Statement'), ('', 'Form 511: Paid Spokesperson Report'), ('', 'Electronic Form 530: Electronic Issue Advocacy Report'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 605: Amendment to Registration, Lobbying Firm, Lobbyist Employer, Lobbying Coalition'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Schedule 630: Payments Made to Lobbying Coalitions (Attachment to Form 625 or 635)'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('S635-C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('', 'Form 690: Amendment to Lobbying Disclosure Report'), ('', 'Form 700: Statement of Economic Interest'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)'), ('F111', 'Unknown'), ('F410 AT', 'Unknown'), ('F410ATR', 'Unknown'), ('F421', 'Unknown'), ('F440', 'Unknown'), ('F470S', 'Form 470: Campaign Disclosure Statement, Short Form (Officeholders and Candidates)'), ('F480', 'Unknown'), ('F500', 'Unknown'), ('F501502', 'Forms 501 and/or 502 (Candidate Intention and/or Bank Account Statements)'), ('F555', 'Unknown'), ('F666', 'Unknown'), ('F777', 'Unknown'), ('F888', 'Unknown'), ('F999', 'Unknown')], db_column='FORM_ID', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711614-CalAccessTablesWeb', start_page=65)], help_text='Form identification code', max_length=7, verbose_name='form type'),
),
migrations.AlterField(
model_name='filerfilingscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filerinterestscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filerlinkscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filernamecd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filerscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filerstatustypescd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filertofilertypecd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filertypeperiodscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filerxrefcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filingperiodcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='filingscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='grouptypescd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='hdrcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='headercd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='imagelinkscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lattcd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Schedule 630: Payments Made to Lobbying Coalitions (Attachment to Form 625 or 635)'), ('S635-C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=52), calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=65), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=79)], help_text='Name of the source filing form or schedule', max_length=6),
),
migrations.AlterField(
model_name='lattcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lccmcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='legislativesessionscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lempcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lexpcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='loancd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyamendmentscd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=74), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=88)], help_text='Name of the source filing form or schedule', max_length=9),
),
migrations.AlterField(
model_name='lobbyamendmentscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyingchglogcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistcontributions1cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistcontributions2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistcontributions3cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemplobbyist1cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemplobbyist2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemployer1cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemployer2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemployer3cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemployerfirms1cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemployerfirms2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistemployerhistorycd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirm1cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirm2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirm3cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirmemployer1cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirmemployer2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirmhistorycd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirmlobbyist1cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lobbyistfirmlobbyist2cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lookupcodescd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lothcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='lpaycd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='namescd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='rawdatafile',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='rawdataversion',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='rcptcd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Electronic Form 530: Electronic Issue Advocacy Report'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)'), ('F401A', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule A, Payments Received'), ('A', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule A, Monetary Contributions Received'), ('A-1', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule A-1, Contributions Transferred to Special Election Commitee'), ('C', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule C, Non-Monetary Contributions Received'), ('I', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule I, Miscellanous increases to cash'), ('F496P3', 'Form 496 (Late Independent Expenditure Report): Part 3, Contributions > $100 Received')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=29), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=37)], help_text='Name of the source filing form or schedule', max_length=9),
),
migrations.AlterField(
model_name='rcptcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='receivedfilingscd',
name='form_id',
field=calaccess_raw.fields.CharField(blank=True, choices=[('', 'Form 400: Statement of Organization (Slate Mailer Organization)'), ('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 402: Statement of Termination (Slate Mailer Organization)'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More')], db_column='FORM_ID', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(end_page=8, id='2711624-Overview', start_page=4)], help_text='Form identification code', max_length=7, verbose_name='form identification code'),
),
migrations.AlterField(
model_name='receivedfilingscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='reportscd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='s401cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='s496cd',
name='form_type',
field=calaccess_raw.fields.CharField(blank=True, choices=[('', 'Form 496: Late Independent Expenditure Report')], db_column='FORM_TYPE', documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=40), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=53)], help_text='Name of the source filing form or schedule', max_length=4),
),
migrations.AlterField(
model_name='s496cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='s497cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='s498cd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='smrycd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('F401A', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule A, Payments Received'), ('F401B', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B, Payments Made'), ('F401B-1', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B-1, Payments Made by Agent or Independent Contractor'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('A', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule A, Monetary Contributions Received'), ('B1', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule B, Part 1, Loans Received'), ('B2', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule B, Part 2, Loan Guarantors'), ('B3', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule B, Part 3, Outstanding Balance'), ('C', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule C, Non-Monetary Contributions Received'), ('D', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule D, Summary of Expenditures Supporting / Opposing Other Candidates, Measures and Committees'), ('E', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule E, Payments Made'), ('F', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule F, Accrued Expenses (Unpaid Bills)'), ('G', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule G, Payments Made by an Agent or Independent Contractor (on Behalf of This Committee)'), ('H', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Loans Made to Others'), ('H1', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Part 1, Loans Made'), ('H2', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Part 2, Repayments Rcvd'), ('H3', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule H, Part 3, Outstanding Loans'), ('I', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule I, Miscellanous increases to cash'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 625: Report of Lobbying Firm'), ('F625P2', 'Form 625 (Report of Lobbying Firm): Part 2, Payments Received in Connection with Lobbying Activity'), ('F625P3A', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section A, Activity Expenses'), ('F625P3B', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section B, Payments Made'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('F635P3A', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section A, Payments To In-house Employee Lobbyists'), ('F635P3B', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section B, Payments To Lobbying Firms'), ('F635P3C', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section C, Activity Expenses'), ('F635P3D', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section D, Other Payments to Influence Legislative or Administrative Action'), ('F635P3E', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section E, Payments in Connection with Administrative Testimony in Ratemaking Proceedings Before The California Public Utilities Commission'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('F645P2A', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section A, Activity Expenses'), ('F645P2B', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section B, Other Payments to Influence Legislative or Administrative Action'), ('F645P2C', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section C, Payments in Connection with Administrative Testimony in Ratemaking Proceedings Before the California Public Utilities Commission'), ('', 'Form 900: Campaign Disclosure Statement (Public employee retirement board candidate)'), ('401A', calaccess_raw.annotations.forms.FilingFormSection(db_value='F401A', documentcloud_id=None, end_page='7', form=calaccess_raw.annotations.forms.FilingForm(db_value='', description='Form 401 is filed by slate mailer organizations to disclose payments made and received in connection with producing slate mailers.', documentcloud_id='2781366-401-2005-01', group='CAMPAIGN', id='F401', title='Campaign Disclosure Statement (Slate Mailer Organization)'), id='A', start_page='5', title='Schedule A, Payments Received')), ('401B', calaccess_raw.annotations.forms.FilingFormSection(db_value='F401B', documentcloud_id=None, end_page='9', form=calaccess_raw.annotations.forms.FilingForm(db_value='', description='Form 401 is filed by slate mailer organizations to disclose payments made and received in connection with producing slate mailers.', documentcloud_id='2781366-401-2005-01', group='CAMPAIGN', id='F401', title='Campaign Disclosure Statement (Slate Mailer Organization)'), id='B', start_page='8', title='Schedule B, Payments Made')), ('401B-1', calaccess_raw.annotations.forms.FilingFormSection(db_value='F401B-1', documentcloud_id=None, end_page='', form=calaccess_raw.annotations.forms.FilingForm(db_value='', description='Form 401 is filed by slate mailer organizations to disclose payments made and received in connection with producing slate mailers.', documentcloud_id='2781366-401-2005-01', group='CAMPAIGN', id='F401', title='Campaign Disclosure Statement (Slate Mailer Organization)'), id='B-1', start_page='10', title='Schedule B-1, Payments Made by Agent or Independent Contractor'))], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=86), calaccess_raw.annotations.documents.DocumentCloud(end_page=28, id='2712033-Cal-Format-1-05-02', start_page=27), calaccess_raw.annotations.documents.DocumentCloud(end_page=60, id='2712033-Cal-Format-1-05-02', start_page=59), calaccess_raw.annotations.documents.DocumentCloud(end_page=37, id='2712034-Cal-Format-201', start_page=36), calaccess_raw.annotations.documents.DocumentCloud(end_page=74, id='2712034-Cal-Format-201', start_page=73)], help_text='Name of the source filing form or schedule', max_length=8),
),
migrations.AlterField(
model_name='smrycd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='spltcd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
migrations.AlterField(
model_name='textmemocd',
name='form_type',
field=calaccess_raw.fields.CharField(choices=[('', 'Form 401: Campaign Disclosure Statement (Slate Mailer Organization)'), ('', 'Form 405: Amendment to Campaign Disclosure Statement'), ('', 'Form 410: Statement of Organization (Recipient Committee)'), ('', 'Form 425: Semi-Annual Statement of No Activity (Recipient Committee)'), ('', 'Form 450: Campaign Disclosure Statement, Short Form (Recipient Committee)'), ('', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('', 'Form 465: Supplemental Independent Expenditure Report'), ('', 'Form 496: Late Independent Expenditure Report'), ('', 'Form 497: Late Contribution Report'), ('', 'Form 498: Late Payment Report (Slate Mailer Organization)'), ('', 'Form 601: Lobbying Firm Registration Statement'), ('', 'Form 602: Lobbying Firm Activity Authorization'), ('', 'Form 603: Lobbyist Employer or Lobbying Coalition Registration Statement'), ('', 'Form 604: Lobbyist Certification Statement'), ('', 'Form 605: Amendment to Registration, Lobbying Firm, Lobbyist Employer, Lobbying Coalition'), ('', 'Form 606: Notice of Termination'), ('', 'Form 607: Notice of Withdrawal'), ('', 'Form 615: Lobbyist Report'), ('', 'Form 625: Report of Lobbying Firm'), ('', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('', 'Form 645: Report of Person Spending $5,000 or More'), ('', 'Schedule 630: Payments Made to Lobbying Coalitions (Attachment to Form 625 or 635)'), ('S635-C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('', 'Schedule 640: Governmental Agencies Reporting (Attachment to Form 635 or Form 645)'), ('410', 'Form 410: Statement of Organization (Recipient Committee)'), ('460', 'Form 460: Campaign Disclosure Statement (Recipient Committee)'), ('461', 'Form 461: Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)'), ('465', 'Form 465: Supplemental Independent Expenditure Report'), ('496', 'Form 496: Late Independent Expenditure Report'), ('497', 'Form 497: Late Contribution Report'), ('497P1', 'Form 497 (Late Contribution Report): Part 1, Contributions Received'), ('497P2', 'Form 497 (Late Contribution Report): Part 2, Contributions Made'), ('F401A', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule A, Payments Received'), ('F401B', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B, Payments Made'), ('F401B-1', 'Form 401 (Campaign Disclosure Statement (Slate Mailer Organization)): Schedule B-1, Payments Made by Agent or Independent Contractor'), ('F450P5', 'Form 450 (Campaign Disclosure Statement, Short Form (Recipient Committee)): Part 5, Payments Made'), ('F461P1', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 1, Name and Address of Filer'), ('F461P2', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 2, Nature and Interests of Filer'), ('F461P5', 'Form 461 (Campaign Disclosure Statement (Independent Expenditure Committee & Major Donor Committee)): Part 5, Contributions (Including Loans, Forgiveness of Loans, and LoanGuarantees) and Expenditures Made'), ('F465P3', 'Form 465 (Supplemental Independent Expenditure Report): Part 3, Independent Expenditures Made'), ('F496P3', 'Form 496 (Late Independent Expenditure Report): Part 3, Contributions > $100 Received'), ('F497P1', 'Form 497 (Late Contribution Report): Part 1, Contributions Received'), ('F497P2', 'Form 497 (Late Contribution Report): Part 2, Contributions Made'), ('F498-A', 'Form 498 (Late Payment Report (Slate Mailer Organization)): Part A, Late Payments Attributed To'), ('F498-R', 'Form 498 (Late Payment Report (Slate Mailer Organization)): Part R, Late Payments Received From'), ('F601P2A', 'Form 601 (Lobbying Firm Registration Statement): Part 2, Section A, Lobbyist Employers'), ('F601P2B', 'Form 601 (Lobbying Firm Registration Statement): Part 2, Section B, Subcontracted Clients'), ('F615P1', 'Form 615 (Lobbyist Report): Part 1, Activity Expenses Paid, Incurred, Arranged or Provided by the Lobbyist'), ('F615P2', 'Form 615 (Lobbyist Report): Part 2, Campaign Contributions Made or Delivered'), ('F625P2', 'Form 625 (Report of Lobbying Firm): Part 2, Payments Received in Connection with Lobbying Activity'), ('F625P3A', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section A, Activity Expenses'), ('F625P3B', 'Form 625 (Report of Lobbying Firm): Part 3, Payments Made In Connection With Lobbying Activities, Section B, Payments Made'), ('F625P4B', 'Form 625 (Report of Lobbying Firm): Part 4, Campaign Contributions Made'), ('S635', 'Form 635: Report of Lobbyist Employer or Report of Lobbying Coalition'), ('F635P3B', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section B, Payments To Lobbying Firms'), ('F635P3C', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 3, Payments Made in Connection with Lobbying Activities, Section C, Activity Expenses'), ('F635P4B', 'Form 635 (Report of Lobbyist Employer or Report of Lobbying Coalition): Part 4, Campaign Contributions Made'), ('F645P2A', 'Form 645 (Report of Person Spending $5,000 or More): Part 2, Payments Made this Period, Section A, Activity Expenses'), ('F645P3B', 'Form 645 (Report of Person Spending $5,000 or More): Part 3, Campaign Contributions Made'), ('S497', 'Form 497: Late Contribution Report'), ('S635C', 'Schedule 635C: Payments Received by Lobbying Coalitions'), ('A', 'Schedule A of any form (e.g., Forms 401 or 460)'), ('A4', 'Schedule A of any form (e.g., Forms 401 or 460)'), ('A6', 'Schedule A of any form (e.g., Forms 401 or 460)'), ('B', 'Schedule B of any form (e.g., Forms 401 or 460)'), ('B1', 'Schedule B, Part 1 of Forms 401 or 460'), ('B2', 'Schedule B, Part 2 of Forms 401 or 460'), ('B3', 'Schedule B, Part 3 of Forms 401 or 460'), ('C', 'Schedule C of any form (e.g., Forms 401 or F460)'), ('COMMENTS', 'Possibly comments by FPPC for any form?'), ('CVR', 'Cover page for any form (e.g., Forms 460, 461 or 497)'), ('D', 'Schedule D of any form (e.g., Forms 401, 460 or 461)'), ('DEBTF', 'Form 460 (Campaign Disclosure Statement (Recipient Committee)): Schedule F, Accrued Expenses (Unpaid Bills)'), ('E', 'Schedule E of any form (e.g., Forms 460, 461 or 465)'), ('EXPNT', 'Expenditures outlined on any form (e.g. Form 460)'), ('F', 'Schedule F of any form (e.g., Form 460)'), ('G', 'Schedule G of any form (e.g., Form 460)'), ('H', 'Schedule H of any form (e.g., Form 460)'), ('H1', 'Schedule H, Part 1 of any form (e.g., Form 460)'), ('H2', 'Schedule H2, Part 2 of any form (e.g., Form 460)'), ('H3', 'Schedule H3, Part 3 of any form (e.g., Form 460)'), ('I', 'Schedule I of any form (e.g., Form 460)'), ('PT5', 'Part 5 of any form (e.g., Form 461'), ('RCPTB1', 'Schedule B, Part 1 of any form (e.g., Form 460'), ('RCPTC', 'Schedule C of any form (e.g., Form 460)'), ('RCPTI', 'Schedule I of any form (e.g., Form 460)'), ('SCH A', 'Schedule A of any form (e.g., Form 460)'), ('SF', 'Schedule F of any form (e.g., Form 460)'), ('SPLT', 'A memo that applies to multiple items?'), ('SMRY', 'Summary section of any form (e.g., Form 460)'), ('SUM', 'Summary section of any form (e.g., Form 460)'), ('SUMMARY', 'Summary section of any form (e.g., Form 460)')], db_column='FORM_TYPE', db_index=True, documentcloud_pages=[calaccess_raw.annotations.documents.DocumentCloud(id='2711616-MapCalFormat2Fields', start_page=90), calaccess_raw.annotations.documents.DocumentCloud(id='2712034-Cal-Format-201', start_page=16), calaccess_raw.annotations.documents.DocumentCloud(id='2712033-Cal-Format-1-05-02', start_page=13)], help_text='Name of the source filing form or schedule', max_length=8, verbose_name='form type'),
),
migrations.AlterField(
model_name='textmemocd',
name='id',
field=models.BigAutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID'),
),
]
| 112.268797 | 8,021 | 0.676093 | 6,954 | 59,727 | 5.713115 | 0.105838 | 0.024466 | 0.064814 | 0.075184 | 0.881145 | 0.864079 | 0.844748 | 0.821012 | 0.807043 | 0.776284 | 0 | 0.042446 | 0.172049 | 59,727 | 531 | 8,022 | 112.480226 | 0.760955 | 0.00072 | 0 | 0.824762 | 1 | 0.062857 | 0.480765 | 0.02572 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.007619 | 0 | 0.013333 | 0.00381 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 10 |
d60982a5b24a637b89ee1eaa4568a36a2766c452 | 151 | py | Python | amulog/alg/drain/__init__.py | cpflat/amulog | b7a8c7478d2e5253158f0bce3a7f7109d23e40cb | [
"BSD-3-Clause"
] | 5 | 2019-07-03T09:57:30.000Z | 2021-02-13T13:15:47.000Z | amulog/alg/drain/__init__.py | cpflat/amulog | b7a8c7478d2e5253158f0bce3a7f7109d23e40cb | [
"BSD-3-Clause"
] | null | null | null | amulog/alg/drain/__init__.py | cpflat/amulog | b7a8c7478d2e5253158f0bce3a7f7109d23e40cb | [
"BSD-3-Clause"
] | 1 | 2021-09-09T02:21:42.000Z | 2021-09-09T02:21:42.000Z | from .drain import LTGenDrain as LTGen
from .drain import init_ltgen
from .drain import get_param_candidates
from .drain import init_ltgen_with_params
| 30.2 | 41 | 0.854305 | 24 | 151 | 5.125 | 0.5 | 0.292683 | 0.487805 | 0.325203 | 0.390244 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.119205 | 151 | 4 | 42 | 37.75 | 0.924812 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 8 |
c3ae70e662fc020cee6ca8d55c3855dfde036326 | 14,637 | py | Python | tests/test_feed.py | exxamalte/python-aio-georss-client | 045a8ad0b5f8969c5634b18bbb3360e085089432 | [
"Apache-2.0"
] | null | null | null | tests/test_feed.py | exxamalte/python-aio-georss-client | 045a8ad0b5f8969c5634b18bbb3360e085089432 | [
"Apache-2.0"
] | 4 | 2020-12-30T10:54:30.000Z | 2022-03-05T09:54:45.000Z | tests/test_feed.py | exxamalte/python-aio-georss-client | 045a8ad0b5f8969c5634b18bbb3360e085089432 | [
"Apache-2.0"
] | 1 | 2021-06-05T12:47:30.000Z | 2021-06-05T12:47:30.000Z | """Tests for base classes."""
import datetime
import aiohttp
import pytest
from aio_georss_client.consts import UPDATE_ERROR, UPDATE_OK
from aio_georss_client.xml_parser.geometry import BoundingBox, Point, Polygon
from tests import MockGeoRssFeed
from tests.utils import load_fixture
HOME_COORDINATES_1 = (-31.0, 151.0)
HOME_COORDINATES_2 = (-37.0, 150.0)
@pytest.mark.asyncio
async def test_update_ok(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
assert (
repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), "
"url=http://test.url/testpath, radius=None, "
"categories=None)>"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 5
feed_entry = entries[0]
assert feed_entry.title == "Title 1"
assert feed_entry.external_id == "1234"
assert feed_entry.category == "Category 1"
assert feed_entry.published == datetime.datetime(2018, 9, 23, 8, 30)
assert feed_entry.updated == datetime.datetime(2018, 9, 23, 8, 35)
assert feed_entry.coordinates == (-37.2345, 149.1234)
assert round(abs(feed_entry.distance_to_home - 714.4), 1) == 0
assert repr(feed_entry) == "<MockFeedEntry(id=1234)>"
feed_entry = entries[1]
assert feed_entry.title == "Title 2"
assert feed_entry.external_id == "2345"
assert feed_entry.attribution is None
assert repr(feed_entry) == "<MockFeedEntry(id=2345)>"
feed_entry = entries[2]
assert feed_entry.title == "Title 3"
assert feed_entry.external_id == "Title 3"
feed_entry = entries[3]
assert feed_entry.title is None
assert feed_entry.external_id == hash(feed_entry.coordinates)
feed_entry = entries[4]
assert feed_entry.title == "Title 5"
assert feed_entry.external_id == "5678"
@pytest.mark.asyncio
async def test_update_ok_feed_2(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_2.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 1
feed_entry = entries[0]
assert feed_entry.title == "Title 1"
assert feed_entry.external_id == "1234"
assert feed_entry.category == "Category 1"
assert feed_entry.coordinates == (-37.2345, 149.1234)
assert round(abs(feed_entry.distance_to_home - 714.4), 1) == 0
@pytest.mark.asyncio
async def test_update_ok_feed_3(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_3.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 5
feed_entry = entries[0]
assert feed_entry.external_id == "1234"
assert len(feed_entry.geometries) == 1
assert isinstance(feed_entry.geometries[0], Polygon)
assert feed_entry.coordinates == (-34.93728111547821, 148.59710883878262)
assert round(abs(feed_entry.distance_to_home - 491.7), 1) == 0
feed_entry = entries[1]
assert feed_entry.external_id == "2345"
assert len(feed_entry.geometries) == 2
assert isinstance(feed_entry.geometries[0], Point)
assert isinstance(feed_entry.geometries[1], Polygon)
assert feed_entry.coordinates == (-34.937170989, 148.597182317)
assert round(abs(feed_entry.distance_to_home - 491.7), 1) == 0
feed_entry = entries[2]
assert feed_entry.external_id == "3456"
assert len(feed_entry.geometries) == 2
assert isinstance(feed_entry.geometries[0], Polygon)
assert isinstance(feed_entry.geometries[1], Polygon)
assert feed_entry.coordinates == (-29.962746645660683, 152.43090880416074)
assert round(abs(feed_entry.distance_to_home - 176.5), 1) == 0
feed_entry = entries[3]
assert feed_entry.external_id == "4567"
assert len(feed_entry.geometries) == 2
assert isinstance(feed_entry.geometries[0], Point)
assert isinstance(feed_entry.geometries[1], Point)
assert feed_entry.coordinates == (-33.2345, 154.789)
assert round(abs(feed_entry.distance_to_home - 172.3), 1) == 0
feed_entry = entries[4]
assert feed_entry.external_id == "5678"
assert len(feed_entry.geometries) == 2
assert isinstance(feed_entry.geometries[0], Point)
assert isinstance(feed_entry.geometries[1], Polygon)
assert feed_entry.coordinates == (-31.2345, 152.789)
assert round(abs(feed_entry.distance_to_home - 172.3), 1) == 0
@pytest.mark.asyncio
async def test_update_ok_feed_6(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_6.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 1
feed_entry = entries[0]
assert feed_entry.external_id == "1234"
assert len(feed_entry.geometries) == 1
assert isinstance(feed_entry.geometries[0], BoundingBox)
assert feed_entry.coordinates == (-20.9041, 168.5652)
assert round(abs(feed_entry.distance_to_home - 1493.3), 1) == 0
@pytest.mark.asyncio
async def test_update_duplicate_geometries(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_7.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
assert (
repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), "
"url=http://test.url/testpath, radius=None, "
"categories=None)>"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 4
feed_entry = entries[0]
assert feed_entry.external_id == "1234"
assert len(feed_entry.geometries) == 1
assert isinstance(feed_entry.geometries[0], Point)
feed_entry = entries[1]
assert feed_entry.external_id == "2345"
assert len(feed_entry.geometries) == 1
assert isinstance(feed_entry.geometries[0], Point)
feed_entry = entries[2]
assert feed_entry.external_id == "3456"
assert len(feed_entry.geometries) == 2
assert isinstance(feed_entry.geometries[0], Point)
assert isinstance(feed_entry.geometries[1], Polygon)
feed_entry = entries[3]
assert feed_entry.external_id == "4567"
assert len(feed_entry.geometries) == 2
assert isinstance(feed_entry.geometries[0], Point)
assert isinstance(feed_entry.geometries[1], BoundingBox)
@pytest.mark.asyncio
async def test_update_ok_feed_8(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_8.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 1
feed_entry = entries[0]
assert feed_entry.title == "Title 1"
assert feed_entry.external_id == "1234"
assert feed_entry.category == "Category 1"
assert feed_entry.coordinates == (-37.2345, 149.1234)
assert round(abs(feed_entry.distance_to_home - 714.4), 1) == 0
@pytest.mark.asyncio
async def test_update_ok_with_radius_filtering(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession,
HOME_COORDINATES_2,
"http://test.url/testpath",
filter_radius=90.0,
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 4
assert round(abs(entries[0].distance_to_home - 82.0), 1) == 0
assert round(abs(entries[1].distance_to_home - 77.0), 1) == 0
assert round(abs(entries[2].distance_to_home - 84.6), 1) == 0
@pytest.mark.asyncio
async def test_update_ok_with_radius_and_category_filtering(aresponses, event_loop):
"""Test updating feed is ok."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession,
HOME_COORDINATES_2,
"http://test.url/testpath",
filter_radius=90.0,
filter_categories=["Category 2"],
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 1
assert round(abs(entries[0].distance_to_home - 77.0), 1) == 0
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200),
)
feed = MockGeoRssFeed(
websession,
HOME_COORDINATES_2,
"http://test.url/testpath",
filter_radius=90.0,
filter_categories=["Category 4"],
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 0
@pytest.mark.asyncio
async def test_update_error(aresponses, event_loop):
"""Test updating feed results in error."""
aresponses.add("test.url", "/badpath", "get", aresponses.Response(status=404))
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(websession, HOME_COORDINATES_1, "http://test.url/badpath")
status, entries = await feed.update()
assert status == UPDATE_ERROR
assert feed.last_timestamp is None
@pytest.mark.asyncio
async def test_update_ok_then_error(aresponses, event_loop):
"""Test updating feed goes fine, followed by an error."""
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=load_fixture("generic_feed_1.xml"), status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
assert (
repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), "
"url=http://test.url/testpath, radius=None, "
"categories=None)>"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 5
assert feed.last_timestamp is not None
aresponses.add("test.url", "/testpath", "get", aresponses.Response(status=404))
status, entries = await feed.update()
assert status == UPDATE_ERROR
assert feed.last_timestamp is None
@pytest.mark.asyncio
async def test_update_with_request_exception(aresponses, event_loop):
"""Test updating feed raises exception."""
aresponses.add("test.url", "/badpath", "get", aresponses.Response(status=404))
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(websession, HOME_COORDINATES_1, "http://test.url/badpath")
status, entries = await feed.update()
assert status == UPDATE_ERROR
assert entries is None
assert feed.last_timestamp is None
@pytest.mark.asyncio
async def test_update_bom(aresponses, event_loop):
"""Test updating feed with BOM (byte order mark) is ok."""
xml = (
"\xef\xbb\xbf<?xml version='1.0' encoding='utf-8'?>"
"<rss version='2.0'><channel><item><title>Title 1</title>"
"</item></channel></rss>"
)
aresponses.add(
"test.url",
"/testpath",
"get",
aresponses.Response(text=xml, charset="iso-8859-1", status=200),
)
async with aiohttp.ClientSession(loop=event_loop) as websession:
feed = MockGeoRssFeed(
websession, HOME_COORDINATES_1, "http://test.url/testpath"
)
assert (
repr(feed) == "<MockGeoRssFeed(home=(-31.0, 151.0), "
"url=http://test.url/testpath, radius=None, "
"categories=None)>"
)
status, entries = await feed.update()
assert status == UPDATE_OK
assert entries is not None
assert len(entries) == 0
| 35.185096 | 88 | 0.631687 | 1,778 | 14,637 | 5.033183 | 0.091114 | 0.094536 | 0.06537 | 0.043692 | 0.902 | 0.890714 | 0.859426 | 0.820986 | 0.792826 | 0.773494 | 0 | 0.048598 | 0.252101 | 14,637 | 415 | 89 | 35.26988 | 0.768886 | 0.001571 | 0 | 0.735905 | 0 | 0 | 0.106066 | 0.015818 | 0 | 0 | 0 | 0 | 0.37092 | 1 | 0 | false | 0 | 0.020772 | 0 | 0.020772 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
c3de2e51d37f967478d1decfdcd7d2dc044aed7b | 22,007 | py | Python | tests/test_rosimport/subtests/test_rosmsg_importlib.py | asmodehn/rosimport | c63e4769650b1cf19f23fbaa65a356ffae20a536 | [
"MIT"
] | 5 | 2017-11-11T18:26:28.000Z | 2019-06-12T08:47:58.000Z | tests/test_rosimport/subtests/test_rosmsg_importlib.py | asmodehn/rosimport | c63e4769650b1cf19f23fbaa65a356ffae20a536 | [
"MIT"
] | 8 | 2017-06-30T08:28:46.000Z | 2017-07-18T04:50:18.000Z | tests/test_rosimport/subtests/test_rosmsg_importlib.py | pyros-dev/rosimport | c63e4769650b1cf19f23fbaa65a356ffae20a536 | [
"MIT"
] | null | null | null | from __future__ import absolute_import, division, print_function
"""
Testing dynamic import with importlib
"""
import os
import sys
import runpy
import logging.config
logging.config.dictConfig({
'version': 1,
'disable_existing_loggers': False,
'formatters': {
'default': {
'format': '%(asctime)s %(levelname)s %(name)s %(message)s'
},
},
'handlers': {
'console': {
'class': 'logging.StreamHandler',
}
},
'root': {
'handlers': ['console'],
'level': 'DEBUG',
},
})
# Relying on basic unittest first, to be able to easily switch the test framework in case of import conflicts.
import unittest
# Ref : http://stackoverflow.com/questions/67631/how-to-import-a-module-given-the-full-path
import importlib
import site
# Importing importer module
from rosimport import RosImporter
# importlib
# https://pymotw.com/3/importlib/index.html
# https://pymotw.com/2/importlib/index.html
#
# Note : we cannot assume anything about import implementation (different python version, different version of pytest)
# => we need to test them all...
#
from ._utils import (
print_importers,
BaseMsgSubTestCase,
BaseSrvSubTestCase,
)
class TestImportLibMsg(BaseMsgSubTestCase):
rosdeps_path = os.path.join(os.path.dirname(os.path.dirname(os.path.dirname(__file__))), 'rosdeps')
# importer instance
rosimporter = RosImporter()
@classmethod
def setUpClass(cls):
# This is used for message definitions, not for python code
site.addsitedir(cls.rosdeps_path)
cls.rosimporter.__enter__()
@classmethod
def tearDownClass(cls):
cls.rosimporter.__exit__(None, None, None)
@unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
def test_importlib_import_absolute_msg(self):
# Verify that files exists and are importable
std_msgs = importlib.__import__('std_msgs.msg')
std_msgs = std_msgs.msg
self.assert_std_message_classes(std_msgs.Bool, std_msgs.Header)
@unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
def test_importlib_import_absolute_class_raises(self):
with self.assertRaises(ImportError):
importlib.__import__('std_msgs.msg.Bool')
# BROKEN 3.4 ?
@unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
def test_importlib_import_relative_msg(self):
# Verify that files exists and are importable
subtest_msgs = importlib.__import__('msg', globals=globals(), level=1)
test_msgs = importlib.__import__('test_rosimport.msg')
test_msgs = test_msgs.msg
self.assert_test_message_classes(subtest_msgs.SubTestMsg, subtest_msgs.SubTestMsgDeps, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg)
# BROKEN 3.4 ?
@unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
def test_importlib_import_relative_class_raises(self):
assert __package__
with self.assertRaises(ImportError):
importlib.__import__('msg.SubTestMsg', globals=globals(), level=1)
# UNTESTED (do we care ?)
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_absolute_msg(self):
# # Verify that files exists and are dynamically importable
# pkg_list = 'std_msgs.msg'.split('.')[:-1]
# mod_list = 'std_msgs.msg'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# std_msgs = pkg
#
# self.assert_std_message_classes(std_msgs.Bool, std_msgs.Header)
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(std_msgs)
# else:
# pass
#
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_absolute_class(self):
# # Verify that files exists and are dynamically importable
# pkg_list = 'std_msgs.msg.Bool'.split('.')[:-1]
# mod_list = 'std_msgs.msg.Bool'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# Bool = pkg
#
# self.assert_std_message_classes(Bool, Header)
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(Bool)
# else:
# pass
#
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_relative_msg(self):
# # Verify that files exists and are dynamically importable
# pkg_list = '.msg'.split('.')[:-1]
# mod_list = '.msg'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# test_msgs = pkg
#
# self.assertTrue(test_msgs is not None)
# self.assertTrue(test_msgs.TestMsg is not None)
# self.assertTrue(callable(test_msgs.TestMsg))
# self.assertTrue(test_msgs.TestMsg._type == 'rosimport/TestMsg') # careful between ros package name and python package name
#
# # use it !
# self.assertTrue(test_msgs.TestMsg(test_bool=True, test_string='Test').test_bool)
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(test_msgs)
# else:
# pass
#
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_relative_class(self):
# # Verify that files exists and are dynamically importable
# pkg_list = '.msg.TestMsg'.split('.')[:-1]
# mod_list = '.msg.TestMsg'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# TestMsg = pkg
#
# self.assert_test_message_classes(TestMsg, TestMsgDeps, TestRosMsgDeps, TestRosMsg)
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(TestMsg)
# else:
# pass
# TODO : dynamic using module_spec (python 3.5)
@unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module")
def test_importlib_importmodule_absolute_msg(self):
# Verify that files exists and are dynamically importable
std_msgs = importlib.import_module('std_msgs.msg')
self.assert_std_message_classes(std_msgs.Bool, std_msgs.Header)
if hasattr(importlib, 'reload'): # recent version of importlib
# attempting to reload
importlib.reload(std_msgs)
else:
pass
assert std_msgs is not None
@unittest.skipIf(not hasattr(importlib, 'import_module'),
reason="importlib does not have attribute import_module")
def test_importlib_importmodule_absolute_class_raises(self):
with self.assertRaises(ImportError):
importlib.import_module('std_msgs.msg.Bool')
@unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module")
def test_importlib_importmodule_relative_msg(self):
assert __package__
# Verify that files exists and are dynamically importable
subtest_msgs = importlib.import_module('.msg', package=__package__)
test_msgs = importlib.import_module('test_rosimport.msg', package=__package__)
self.assert_test_message_classes(subtest_msgs.SubTestMsg, subtest_msgs.SubTestMsgDeps, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg)
if hasattr(importlib, 'reload'): # recent version of importlib
# attempting to reload
importlib.reload(test_msgs)
else:
pass
assert test_msgs is not None
@unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module")
def test_importlib_importmodule_relative_msg_from_absolute(self):
assert __package__
# Verify that files exists and are dynamically importable
subtest_msgs = importlib.import_module('test_rosimport.subtests.msg')
test_msgs = importlib.import_module('test_rosimport.msg')
self.assert_test_message_classes(subtest_msgs.SubTestMsg, subtest_msgs.SubTestMsgDeps, test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg)
if hasattr(importlib, 'reload'): # recent version of importlib
# attempting to reload
importlib.reload(test_msgs)
else:
pass
assert test_msgs is not None
@unittest.skipIf(not hasattr(importlib, 'import_module'),
reason="importlib does not have attribute import_module")
def test_importlib_importmodule_relative_class_raises(self):
assert __package__
with self.assertRaises(ImportError):
importlib.import_module('.msg.TestMsg', package=__package__)
# TODO
# def test_double_import_uses_cache(self): #
# print_importers()
# # Verify that files exists and are importable
# import std_msgs.msg as std_msgs
#
# self.assertTrue(std_msgs.Bool is not None)
# self.assertTrue(callable(std_msgs.Bool))
# self.assertTrue(std_msgs.Bool._type == 'std_msgs/Bool')
#
# import std_msgs.msg as std_msgs2
#
# self.assertTrue(std_msgs == std_msgs2)
class TestImportLibSrv(BaseSrvSubTestCase):
ros_comm_msgs_path = os.path.join(os.path.dirname(os.path.dirname(os.path.dirname(__file__))), 'rosdeps', 'ros_comm_msgs')
# For dependencies
rosdeps_path = os.path.join(os.path.dirname(os.path.dirname(os.path.dirname(__file__))), 'rosdeps')
rosimporter = RosImporter()
@classmethod
def setUpClass(cls):
# This is used for message definitions, not for python code
site.addsitedir(cls.rosdeps_path)
site.addsitedir(cls.ros_comm_msgs_path)
cls.rosimporter.__enter__()
@classmethod
def tearDownClass(cls):
cls.rosimporter.__exit__(None, None, None)
@unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
def test_importlib_import_absolute_srv(self):
# Verify that files exists and are importable
# __import__ checks sys.modules by itself
# but the test is not reflecting anything if we use the already loaded module.
if sys.modules.get('std_srvs.srv'):
#TODO : EVERYWHERE !
raise unittest.SkipTest("module previously loaded".format('std_srvs.srv'))
else:
std_srvs = importlib.__import__('std_srvs.srv')
std_srvs = std_srvs.srv
self.assert_std_service_classes(std_srvs.SetBool, std_srvs.SetBoolRequest, std_srvs.SetBoolResponse)
@unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
def test_importlib_import_absolute_class_raises(self):
with self.assertRaises(ImportError):
importlib.__import__('std_srvs.srv.SetBool')
# BROKEN 3.4 ?
@unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
def test_importlib_import_relative_srv(self):
# Verify that files exists and are importable
subtest_srvs = importlib.__import__('srv', globals=globals(), level=1)
test_msgs = importlib.__import__('test_rosimport.msg')
test_msgs = test_msgs.msg
self.assert_test_service_classes(subtest_srvs.SubTestSrv, subtest_srvs.SubTestSrvRequest, subtest_srvs.SubTestSrvResponse,
subtest_srvs.SubTestSrvDeps, subtest_srvs.SubTestSrvDepsRequest, subtest_srvs.SubTestSrvDepsResponse,
test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg)
# UNTESTED : do we care ?
# @unittest.skipIf(not hasattr(importlib, '__import__'), reason="importlib does not have attribute __import__")
# def test_importlib_import_relative_class_raises(self):
# assert __package__
# with self.assertRaises(ImportError):
# importlib.__import__('srv.SetBool', globals=globals(), level=1)
#
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_absolute_srv(self):
# # Verify that files exists and are dynamically importable
# pkg_list = 'std_srvs.srv'.split('.')[:-1]
# mod_list = 'std_srvs.srv'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# std_srvs = pkg
#
# self.assert_std_service_classes(std_srvs.SetBool, std_srvs.SetBoolRequest, std_srvs.SetBoolResponse)
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(std_srvs)
# else:
# pass
#
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_absolute_class(self):
# # Verify that files exists and are dynamically importable
# pkg_list = 'std_srvs.srv.SetBool'.split('.')[:-1]
# mod_list = 'std_srvs.srv.SetBool'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# SetBool = pkg
#
# self.assert_test_service_classes(SetBool, SetBoolRequest, SetBoolResponse)
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(SetBool)
# else:
# pass
#
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_relative_srv(self):
# # Verify that files exists and are dynamically importable
# pkg_list = '.srv'.split('.')[:-1]
# mod_list = '.srv'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# test_srvs = pkg
#
# self.assert_test_service_classes()
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(test_msgs)
# else:
# pass
#
# @unittest.skipIf(not hasattr(importlib, 'find_loader') or not hasattr(importlib, 'load_module'),
# reason="importlib does not have attribute find_loader or load_module")
# def test_importlib_loadmodule_relative_class(self):
# # Verify that files exists and are dynamically importable
# pkg_list = '.srv.TestSrv'.split('.')[:-1]
# mod_list = '.srv.TestSrv'.split('.')[1:]
# pkg = None
# for pkg_name, mod_name in zip(pkg_list, mod_list):
# pkg_loader = importlib.find_loader(pkg_name, pkg.__path__ if pkg else None)
# pkg = pkg_loader.load_module(mod_name)
#
# TestSrv = pkg
#
# self.assert_test_service_classes()
#
# # TODO : implement some differences and check we get them...
# if hasattr(importlib, 'reload'): # recent version of importlib
# # attempting to reload
# importlib.reload(TestSrv)
# else:
# pass
# TODO : dynamic using module_spec (python 3.5)
@unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module")
def test_importlib_importmodule_absolute_srv(self):
# Verify that files exists and are dynamically importable
std_srvs = importlib.import_module('std_srvs.srv')
self.assert_std_service_classes(std_srvs.SetBool, std_srvs.SetBoolRequest, std_srvs.SetBoolResponse)
if hasattr(importlib, 'reload'): # recent version of importlib
# attempting to reload
importlib.reload(std_srvs)
else:
pass
assert std_srvs is not None
@unittest.skipIf(not hasattr(importlib, 'import_module'),
reason="importlib does not have attribute import_module")
def test_importlib_importmodule_absolute_class_raises(self):
with self.assertRaises(ImportError):
importlib.import_module('std_srvs.srv.SetBool')
@unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module")
def test_importlib_importmodule_relative_srv(self):
assert __package__
# Verify that files exists and are dynamically importable
subtest_srvs = importlib.import_module('.srv', package=__package__)
test_msgs = importlib.import_module('test_rosimport.msg', package=__package__)
self.assert_test_service_classes(subtest_srvs.SubTestSrv, subtest_srvs.SubTestSrvRequest, subtest_srvs.SubTestSrvResponse,
subtest_srvs.SubTestSrvDeps, subtest_srvs.SubTestSrvDepsRequest, subtest_srvs.SubTestSrvDepsResponse,
test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg)
if hasattr(importlib, 'reload'): # recent version of importlib
# attempting to reload
importlib.reload(subtest_srvs)
else:
pass
assert subtest_srvs is not None
@unittest.skipIf(not hasattr(importlib, 'import_module'), reason="importlib does not have attribute import_module")
def test_importlib_importmodule_relative_srv_from_absolute(self):
assert __package__
# Verify that files exists and are dynamically importable
subtest_srvs = importlib.import_module('test_rosimport.subtests.srv')
test_msgs = importlib.import_module('test_rosimport.msg')
self.assert_test_service_classes(subtest_srvs.SubTestSrv, subtest_srvs.SubTestSrvRequest, subtest_srvs.SubTestSrvResponse,
subtest_srvs.SubTestSrvDeps, subtest_srvs.SubTestSrvDepsRequest, subtest_srvs.SubTestSrvDepsResponse,
test_msgs.TestRosMsgDeps, test_msgs.TestRosMsg)
if hasattr(importlib, 'reload'): # recent version of importlib
# attempting to reload
importlib.reload(subtest_srvs)
else:
pass
assert subtest_srvs is not None
@unittest.skipIf(not hasattr(importlib, 'import_module'),
reason="importlib does not have attribute import_module")
def test_importlib_importmodule_relative_class_raises(self):
assert __package__
with self.assertRaises(ImportError):
importlib.import_module('.srv.TestSrv', package=__package__)
# TODO
# def test_double_import_uses_cache(self): #
# print_importers()
# # Verify that files exists and are importable
# import std_msgs.msg as std_msgs
#
# self.assertTrue(std_msgs.Bool is not None)
# self.assertTrue(callable(std_msgs.Bool))
# self.assertTrue(std_msgs.Bool._type == 'std_msgs/Bool')
#
# import std_msgs.msg as std_msgs2
#
# self.assertTrue(std_msgs == std_msgs2)
if __name__ == '__main__':
import pytest
pytest.main(['-s', '-x', __file__, '--boxed'])
| 42.566731 | 142 | 0.662153 | 2,550 | 22,007 | 5.42 | 0.090196 | 0.056436 | 0.04674 | 0.045149 | 0.880399 | 0.85645 | 0.842486 | 0.834672 | 0.834238 | 0.818175 | 0 | 0.002519 | 0.242287 | 22,007 | 516 | 143 | 42.649225 | 0.826327 | 0.465715 | 0 | 0.594595 | 0 | 0 | 0.141994 | 0.008672 | 0 | 0 | 0 | 0.001938 | 0.162162 | 1 | 0.113514 | false | 0.032432 | 0.540541 | 0 | 0.691892 | 0.010811 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 8 |
6181f226d9f2151e127452c2a72c099797ae08ca | 78,436 | py | Python | graphs.py | UmbertoGostoli/Simulation-for-Scottish-Gov | 4c2c00d455f41ec6c1ff09071193f5729e92a61c | [
"MIT"
] | null | null | null | graphs.py | UmbertoGostoli/Simulation-for-Scottish-Gov | 4c2c00d455f41ec6c1ff09071193f5729e92a61c | [
"MIT"
] | null | null | null | graphs.py | UmbertoGostoli/Simulation-for-Scottish-Gov | 4c2c00d455f41ec6c1ff09071193f5729e92a61c | [
"MIT"
] | null | null | null | # -*- coding: utf-8 -*-
"""
Created on Wed Feb 06 15:45:43 2019
@author: ug4d
"""
import numpy as np
import matplotlib.pyplot as plt
from matplotlib.ticker import MaxNLocator
from matplotlib.backends.backend_pdf import PdfPages
import os
from collections import OrderedDict
import pandas as pd
import sys
def doGraphs(graphsParams, metaParams):
folder = graphsParams[0]
numRepeats = graphsParams[2]
numScenarios = graphsParams[3]
numPolicies = graphsParams[4]
simFolder = 'Simulations_Folder/' + folder
multipleRepeatsDF = []
for repeatID in range(numRepeats):
repFolder = simFolder + '/Rep_' + str(repeatID)
multipleScenariosDF = []
for scenarioID in range(numScenarios):
scenarioFolder = repFolder + '/Scenario_' + str(scenarioID)
multiplePoliciesDF = []
for policyID in range(numPolicies):
policyFolder = scenarioFolder + '/Policy_' + str(policyID)
outputsDF = pd.read_csv(policyFolder + '/Outputs.csv', sep=',', header=0)
singlePolicyGraphs(outputsDF, policyFolder, metaParams)
multiplePoliciesDF.append(outputsDF)
if numPolicies > 1:
multiplePoliciesGraphs(multiplePoliciesDF, scenarioFolder, metaParams, numPolicies)
multipleScenariosDF.append(multiplePoliciesDF)
if numScenarios > 1:
multipleScenariosGraphs(multipleScenariosDF, repFolder, metaParams, numPolicies, numScenarios)
multipleRepeatsDF.append(multipleScenariosDF)
if numRepeats > 1:
multipleRepeatsGraphs(multipleRepeatsDF, simFolder, metaParams, numPolicies, numScenarios, numRepeats)
def singlePolicyGraphs(output, policyFolder, p):
folder = policyFolder + '/Graphs'
if not os.path.exists(folder):
os.makedirs(folder)
policyYears = int((p['endYear']-p['policyStartYear']) + 1)
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['currentPop'], color="red", label = 'Total population')
p2, = ax.plot(output['year'], output['taxPayers'], color="blue", label = 'Taxpayers')
ax.set_ylabel('Number of people')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.ticklabel_format(style='sci', axis='y')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'popGrowth.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['grossDomesticProduct'], color="red")
ax.set_ylabel('Pounds')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'grossDomesticProduct.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['averageHouseholdSize'], color="red")
ax.set_ylabel('Average Household Size')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'avgHouseholdSize.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['marriagePropNow'], color="red")
ax.set_ylabel('Married adult women (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareMarriedWomen.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['shareSingleParents'], color="red")
ax.set_ylabel('Single Parents (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareSingleParents.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['shareFemaleSingleParent'], color="red")
ax.set_ylabel('Female Single Parents (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareFemaleSingleParents.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['totalHospitalizationCost'], color="red")
ax.set_ylabel('Hospitalization Cost')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'hospitalizationCost.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['publicSocialCare'], color="red")
ax.set_ylabel('Public Social Care (hours per week)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'publicSocialCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['publicCareToGDP'], color="red")
ax.set_ylabel('Share')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'publicCareToGDP.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots()
p1, = ax.plot(output['year'], output['totalInformalSocialCare'], linewidth = 3, label = 'Informal Care')
p2, = ax.plot(output['year'], output['totalFormalSocialCare'], linewidth = 3, label = 'Formal Care')
p3, = ax.plot(output['year'], output['totalUnmetSocialCareNeed'], linewidth = 3, label = 'Unmet Care')
p4, = ax.plot(output['year'], output['publicSocialCare'], linewidth = 3, label = 'Public Social Care')
ax.set_xlim(left = p['statsCollectFrom'])
ax.set_ylabel('Hours per week')
# ax.set_xlabel('Year')
handles, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper left')
# ax.set_title('Total Delivered and Unmet Care')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
plt.xlim(p['statsCollectFrom'], p['endYear'])
# plt.ylim(0, 25)
plt.xticks(range(int(p['statsCollectFrom']), int(p['endYear']+1), 20))
fig.tight_layout()
path = os.path.join(folder, 'Delivered_UnmetSocialCareChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
n_groups = p['numberClasses']
meanInformalCareReceived_1 = np.mean(output['q1_informalSocialCare'][-policyYears:])
meanFormalCareReceived_1 = np.mean(output['q1_formalSocialCare'][-policyYears:])
meanUnmetNeed_1 = np.mean(output['q1_unmetSocialCareNeed'][-policyYears:])
meanInformalCareReceived_2 = np.mean(output['q2_informalSocialCare'][-policyYears:])
meanFormalCareReceived_2 = np.mean(output['q2_formalSocialCare'][-policyYears:])
meanUnmetNeed_2 = np.mean(output['q2_unmetSocialCareNeed'][-policyYears:])
meanInformalCareReceived_3 = np.mean(output['q3_informalSocialCare'][-policyYears:])
meanFormalCareReceived_3 = np.mean(output['q3_formalSocialCare'][-policyYears:])
meanUnmetNeed_3 = np.mean(output['q3_unmetSocialCareNeed'][-policyYears:])
meanInformalCareReceived_4 = np.mean(output['q4_informalSocialCare'][-policyYears:])
meanFormalCareReceived_4 = np.mean(output['q4_formalSocialCare'][-policyYears:])
meanUnmetNeed_4 = np.mean(output['q4_unmetSocialCareNeed'][-policyYears:])
meanInformalCareReceived_5 = np.mean(output['q5_informalSocialCare'][-policyYears:])
meanFormalCareReceived_5 = np.mean(output['q5_formalSocialCare'][-policyYears:])
meanUnmetNeed_5 = np.mean(output['q5_unmetSocialCareNeed'][-policyYears:])
informalCare = (meanInformalCareReceived_1, meanInformalCareReceived_2, meanInformalCareReceived_3,
meanInformalCareReceived_4, meanInformalCareReceived_5)
formalCare = (meanFormalCareReceived_1, meanFormalCareReceived_2, meanFormalCareReceived_3,
meanFormalCareReceived_4, meanFormalCareReceived_5)
sumInformalFormalCare = [x + y for x, y in zip(informalCare, formalCare)]
unmetNeeds = (meanUnmetNeed_1, meanUnmetNeed_2, meanUnmetNeed_3, meanUnmetNeed_4, meanUnmetNeed_5)
ind = np.arange(n_groups) # the x locations for the groups
width = 0.5 # the width of the bars: can also be len(x) sequence
fig, ax = plt.subplots()
p1 = ax.bar(ind, informalCare, width, align='center', color = 'g', label = 'Informal Care')
p2 = ax.bar(ind, formalCare, width, bottom = informalCare, align='center', color = 'y', label = 'Formal Care')
p3 = ax.bar(ind, unmetNeeds, width, bottom = sumInformalFormalCare, align='center', color = 'r', label = 'Unmet Care Needs')
ax.set_ylabel('Hours per week')
ax.set_xticks(ind)
plt.xticks(ind, ('I', 'II', 'III', 'IV', 'V'), fontsize = 12)
handles, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper right')
ax.yaxis.label.set_fontsize(12)
# ax.set_title('Informal, Formal and Unmet Social Care Need per Recipient')
fig.tight_layout()
path = os.path.join(folder, 'SocialCarePerRecipientByClassStackedBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['costPublicSocialCare'], color="red")
ax.set_ylabel('Pounds per week')
# ax.set_title('Cost of Public Social Care')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'costPublicSocialCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['sharePublicSocialCare'], color="red")
ax.set_ylabel('Public Social Care (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'sharePublicSocialCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['publicChildCare'], color="red")
ax.set_ylabel('Public Child Care (hours per week)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'publicChildCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['publicChildCare'], color="red")
p2, = ax.plot(output['year'], output['publicSocialCare'], color="green")
ax.set_ylabel('Hours per week')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'publicSocialAndChildCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['sharePublicChildCare'], color="red")
ax.set_ylabel('Public Child Care (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'sharePublicChildCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['employmentRate'], color="red")
ax.set_ylabel('Employment Rate')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'employmentRate.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['shareWorkingHours'], color="red")
ax.set_ylabel('Working time (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareWorkingHours.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
share_1 = output.loc[output['year'] == p['outputYear'], 'classShare_1'].values[0]
share_2 = output.loc[output['year'] == p['outputYear'], 'classShare_2'].values[0]
share_3 = output.loc[output['year'] == p['outputYear'], 'classShare_3'].values[0]
share_4 = output.loc[output['year'] == p['outputYear'], 'classShare_4'].values[0]
share_5 = output.loc[output['year'] == p['outputYear'], 'classShare_5'].values[0]
fig, ax = plt.subplots()
objects = ('SES I', 'SES II', 'SES III', 'SES IV', 'SES V')
y_pos = np.arange(len(objects))
shares = [share_1, share_2, share_3, share_4, share_5]
ax.bar(y_pos, shares, align='center', alpha=0.5)
ax.set_xticks(np.arange(len(objects)))
ax.set_xticklabels(objects)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('SES Shares')
# ax.set_title('Population SES Shares')
fig.tight_layout()
path = os.path.join(folder, 'sharesClasses.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['shareCareGivers'], color="red")
ax.set_ylabel('Care Givers (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareCareGivers.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['ratioFemaleMaleCarers'], color="red")
ax.set_ylabel('Ratio female/male carers')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'ratioFemaleMaleCarers.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['shareMaleCarers'], label = 'Males')
p2, = ax.plot(output['year'], output['shareFemaleCarers'], label = 'Females')
# ax.set_title('Care Givers by Gender (share)')
ax.set_ylabel('Shares of Population')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareCareGiversByGender.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['ratioWage'], color="red")
ax.set_ylabel('Ratio female/male wage')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'ratioFemaleMaleWage.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['ratioIncome'], color="red")
ax.set_ylabel('Ratio female/male Income')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'ratioFemaleMaleIncome.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['shareFamilyCarer'], color="red")
ax.set_ylabel('Carer within family (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareFamilyCarer.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['averageHoursOfCare'], color="red")
ax.set_ylabel('Hours of care (average)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'averageHoursOfCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['classShare_1'], color="red")
ax.set_ylabel('Share of Population')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'classShare_1.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['totalSocialCareNeed'], color="red")
ax.set_ylabel('Social care needs (hours/week)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'totalSocialCareNeed.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
averageCareNeed = []
for i in range(int(p['startYear']), int(p['endYear'])+1):
averageCareNeed.append(output.loc[output['year'] == i, 'totalSocialCareNeed'].values[0]/output.loc[output['year'] == i, 'currentPop'].values[0])
p1, = ax.plot(output['year'], averageCareNeed, color="red")
ax.set_ylabel('Hours of social care needs')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'averageSocialCareNeed.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['totalInformalSocialCare'], label = 'Informal Care')
p2, = ax.plot(output['year'], output['totalFormalSocialCare'], label = 'Formal Care')
# ax.set_title('Informal and Formal Social Care')
ax.set_ylabel('Hours per week')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'hoursInformalFormalSocialCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['totalUnmetSocialCareNeed'], color="red")
# ax.set_title('Informal and Formal Social Care')
ax.set_ylabel('Hours per week')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'hoursUnmetSocialCareNeed.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['share_InformalSocialCare'], color="red")
ax.set_ylabel('Informal social care (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareInformalSocialCare.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['share_UnmetSocialCareNeed'], color="red")
ax.set_ylabel('Unmet Social Care Need (share)')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareUnmetSocialCareNeed.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['q1_socialCareNeed'], label = 'Q1')
p2, = ax.plot(output['year'], output['q2_socialCareNeed'], label = 'Q2')
p3, = ax.plot(output['year'], output['q3_socialCareNeed'], label = 'Q3')
p4, = ax.plot(output['year'], output['q4_socialCareNeed'], label = 'Q4')
p5, = ax.plot(output['year'], output['q5_socialCareNeed'], label = 'Q5')
# ax.set_title('Social Care Needs by Income Quintiles')
handles, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.set_ylabel('Hours per week')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'socialCareNeedsByQuintiles.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['q1_unmetSocialCareNeed'], label = 'Q1')
p2, = ax.plot(output['year'], output['q2_unmetSocialCareNeed'], label = 'Q2')
p3, = ax.plot(output['year'], output['q3_unmetSocialCareNeed'], label = 'Q3')
p4, = ax.plot(output['year'], output['q4_unmetSocialCareNeed'], label = 'Q4')
p5, = ax.plot(output['year'], output['q5_unmetSocialCareNeed'], label = 'Q5')
# ax.set_title('Social Care Needs by Income Quintiles')
handles, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper left')
ax.set_ylabel('Hours per week')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'unmetSocialCareNeedsByQuintiles.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['q1_outOfWorkSocialCare'], label = 'Q1')
p2, = ax.plot(output['year'], output['q2_outOfWorkSocialCare'], label = 'Q2')
p3, = ax.plot(output['year'], output['q3_outOfWorkSocialCare'], label = 'Q3')
p4, = ax.plot(output['year'], output['q4_outOfWorkSocialCare'], label = 'Q4')
p5, = ax.plot(output['year'], output['q5_outOfWorkSocialCare'], label = 'Q5')
# ax.set_title('Social Care Needs by Income Quintiles')
handles, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper left')
ax.set_ylabel('Hours per week')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'outOfWorkCareByQuintiles.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['q1_formalSocialCare'], label = 'Q1')
p2, = ax.plot(output['year'], output['q2_formalSocialCare'], label = 'Q2')
p3, = ax.plot(output['year'], output['q3_formalSocialCare'], label = 'Q3')
p4, = ax.plot(output['year'], output['q4_formalSocialCare'], label = 'Q4')
p5, = ax.plot(output['year'], output['q5_formalSocialCare'], label = 'Q5')
# ax.set_title('Social Care Needs by Income Quintiles')
handles, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper left')
ax.set_ylabel('Hours per week')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'formalCareByQuintiles.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
p1, = ax.plot(output['year'], output['totalCostOWSC'], color="red")
ax.set_ylabel('Pounds per week')
# ax.set_title('Cost of out-of-work social care')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'outOfWorkSocialCareCost.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
def multiplePoliciesGraphs(output, scenarioFolder, p, numPolicies):
folder = scenarioFolder + '/Graphs'
if not os.path.exists(folder):
os.makedirs(folder)
# Add graphs across policies (within the same run/scenario)
############################# Population #######################################
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['currentPop'], label = policyLabel))
# ax.set_title('Populations')
ax.set_ylabel('Number of people')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'popGrowth_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
########################### Share of Umnet Care Needs #################################
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['share_UnmetSocialCareNeed'], label = policyLabel))
# ax.set_title('Share of Unmet Social Care Needs')
ax.set_ylabel('Share of Unmet Social Care')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper left')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareUnmetSocialCareNeeds_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['totalUnmetSocialCareNeed'], label = policyLabel))
# ax.set_title('Unmet Social Care Needs')
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper left')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'totalUnmetSocialCareNeeds_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['totalHospitalizationCost'], label = policyLabel))
# ax.set_title('Hospitalization Cost')
ax.set_ylabel('Punds per year')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'hospitalizationCost_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['totalOWSC'], label = policyLabel))
# ax.set_title('Out-of-Work Care')
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower left')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'outOfWorkCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['publicSocialCare'], label = policyLabel))
# ax.set_title('Amount of Public Social Care')
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'publicSocialCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['totalFormalSocialCare'], label = policyLabel))
# ax.set_title('Amount of Formal Social Care')
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'formalSocialCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['shareInformalChildCare'], label = policyLabel))
# ax.set_title('Share Informal Child Care')
ax.set_ylabel('Share of child care')
plt.ylim(0.6, 1.0)
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper left')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareInformalChildCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['share_InformalSocialCare'], label = policyLabel))
# ax.set_title('Share Informal Child Care')
ax.set_ylabel('Share of social care')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareInformalSocialCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['totalInformalChildCare'], label = policyLabel))
# ax.set_title('Share Informal Child Care')
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'informalChildCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['totalInformalSocialCare'], label = policyLabel))
# ax.set_title('Share Informal Child Care')
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'upper right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'informalSocialCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['formalChildCare'], label = policyLabel))
# ax.set_title('Formal Child Care')
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower left')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'formalChildCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['sharePublicChildCare'], label = policyLabel))
# ax.set_title('Share of Public Child Care')
ax.set_ylabel('Share of child care')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'sharePublicChildCare_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['shareWorkingHours'], label = policyLabel))
# ax.set_title('Share of working time')
ax.set_ylabel('Share of total working hours')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareWorkingTime_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
graph.append(ax.plot(output[i]['year'], output[i]['employmentRate'], label = policyLabel))
# ax.set_title('Employment Rate')
ax.set_ylabel('Employment Rate')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'employmentRate_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numPolicies):
policyLabel = 'Benchmark'
if i != 0:
policyLabel = 'Policy ' + str(i)
c1 = output[i]['costTaxFreeChildCare']
c2 = output[i]['costPublicChildCare']
c3 = output[i]['costPublicSocialCare']
c4 = output[i]['costTaxFreeSocialCare']
policyCost = [sum(x) for x in zip(c1, c2, c3, c4)]
graph.append(ax.plot(output[i]['year'], policyCost, label = policyLabel))
# ax.set_title('Policy Cost')
ax.set_ylabel('Pounds per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'directPolicyCost_axPol.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
outOfWorkCare = []
for i in range(numPolicies):
outOfWorkCare.append(np.sum(output[i]['totalHospitalizationCost'][-policyYears:]))
ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
# plt.ylim(75000000, 85000000)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Pounds')
# ax.set_title('Formal Child Care (2020-2040)')
fig.tight_layout()
path = os.path.join(folder, 'hospitalizationCostBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
outOfWorkCare = []
for i in range(numPolicies):
outOfWorkCare.append(np.sum(output[i]['totalSocialCareNeed'][-policyYears:]))
ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
# plt.ylim(1200000, 1400000)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Hours per week')
# ax.set_title('Formal Child Care (2020-2040)')
fig.tight_layout()
path = os.path.join(folder, 'totalSocialCareNeedBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
outOfWorkCare = []
for i in range(numPolicies):
outOfWorkCare.append(np.sum(output[i]['totalInformalSocialCare'][-policyYears:]))
ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
# plt.ylim(350000, 450000)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Hours per week')
# ax.set_title('Formal Child Care (2020-2040)')
fig.tight_layout()
path = os.path.join(folder, 'totalInformalCareNeedBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
outOfWorkCare = []
for i in range(numPolicies):
outOfWorkCare.append(np.sum(output[i]['totalFormalSocialCare'][-policyYears:]))
ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
# plt.ylim(150000, 225000)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Hours per week')
# ax.set_title('Formal Child Care (2020-2040)')
fig.tight_layout()
path = os.path.join(folder, 'totalFormalCareNeedBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
outOfWorkCare = []
for i in range(numPolicies):
outOfWorkCare.append(np.sum(output[i]['formalChildCare'][-policyYears:]))
ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Hours per week')
# ax.set_title('Formal Child Care (2020-2040)')
fig.tight_layout()
path = os.path.join(folder, 'formal Child CareBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
outOfWorkCare = []
for i in range(numPolicies):
outOfWorkCare.append(np.sum(output[i]['totalOWSC'][-policyYears:]))
ax.bar(y_pos, outOfWorkCare, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Hours per week')
# ax.set_title('Out-of-Work Social Care (2020-2040)')
fig.tight_layout()
path = os.path.join(folder, 'outOfWorkSocialCareBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
shareUnmetCareDemand = []
for i in range(numPolicies):
shareUnmetCareDemand.append(np.sum(output[i]['totalUnmetSocialCareNeed'][-policyYears:]))
ax.bar(y_pos, shareUnmetCareDemand, align='center', alpha=0.5)
# plt.ylim(500000, 650000)
plt.xticks(y_pos, objects)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Hours of Unmet Care')
# ax.set_title('Total Unmet Social Care Need')
fig.tight_layout()
path = os.path.join(folder, 'TotalUnmetCareNeedBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
shareUnmetCareDemand = []
for i in range(numPolicies):
shareUnmetCareDemand.append(np.sum(output[i]['publicSocialCare'][-policyYears:]))
ax.bar(y_pos, shareUnmetCareDemand, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
# plt.ylim(80000, 170000)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Hours of Social Care')
# ax.set_title('Total Unmet Social Care Need')
fig.tight_layout()
path = os.path.join(folder, 'publicSocialCareBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
policyYears = int(p['endYear']-p['policyStartYear']) + 1
# Fig. 9: Bar charts of total unmet care need by Policy
fig, ax = plt.subplots()
objects = ('Benchmark', 'P1', 'P2', 'P3', 'P4')
y_pos = np.arange(len(objects))
shareUnmetCareDemand = []
for i in range(numPolicies):
c1 = output[i]['costTaxFreeChildCare']
c2 = output[i]['costPublicChildCare']
c3 = output[i]['costPublicSocialCare']
c4 = output[i]['costTaxFreeSocialCare']
policyCost = [sum(x) for x in zip(c1, c2, c3, c4)]
shareUnmetCareDemand.append(np.sum(policyCost[-policyYears:]))
ax.bar(y_pos, shareUnmetCareDemand, align='center', alpha=0.5)
plt.xticks(y_pos, objects)
ax.xaxis.set_ticks_position('none')
ax.set_ylabel('Pounds per week')
# ax.set_title('Total Policy Costs (2020-2040)')
fig.tight_layout()
path = os.path.join(folder, 'TotalPolicyCostBarChart.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
def multipleScenariosGraphs(output, repFolder, p, numPolicies, numScenarios):
folder = repFolder + '/Graphs'
if not os.path.exists(folder):
os.makedirs(folder)
# Add graphs across scenarios (for the same policies)
for j in range(numPolicies):
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numScenarios):
graph.append(ax.plot(output[i][j]['year'], output[i][j]['currentPop'], label = 'Scenario ' + str(i+1)))
# p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1')
ax.set_title('Populations - Policy ' + str(j))
ax.set_ylabel('Number of people')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'popGrowth_axScen_P' + str(j) + '.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
for j in range(numPolicies):
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numScenarios):
graph.append(ax.plot(output[i][j]['year'], output[i][j]['share_UnmetSocialCareNeed'], label = 'Scenario ' + str(i+1)))
# p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1')
ax.set_title('Unmet Care Needs - Policy ' + str(j))
ax.set_ylabel('Unmet Care Needs (share)')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'shareUnmetSocialCareNeeds_axScen_P' + str(j) + '.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
for j in range(numPolicies):
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numScenarios):
graph.append(ax.plot(output[i][j]['year'], output[i][j]['totalHospitalizationCost'], label = 'Scenario ' + str(i+1)))
# p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1')
ax.set_title('Hospitalization Cost - Policy ' + str(j))
ax.set_ylabel('Punds per year')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'hospitalizationCost_axScen_P' + str(j) + '.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
for j in range(numPolicies):
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numScenarios):
graph.append(ax.plot(output[i][j]['year'], output[i][j]['publicCare'], label = 'Scenario ' + str(i+1)))
# p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1')
ax.set_title('Amount of Public Care - Policy ' + str(j))
ax.set_ylabel('Hours per week')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'publicCare_axScen_P' + str(j) + '.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
for j in range(numPolicies):
fig, ax = plt.subplots() # Argument: figsize=(5, 3)
graph = []
for i in range(numScenarios):
graph.append(ax.plot(output[i][j]['year'], output[i][j]['employmentRate'], label = 'Scenario ' + str(i+1)))
# p2, = ax.plot(output[1][0]['year'], output[1]['currentPop'], color="blue", label = 'Policy 1')
ax.set_title('Employment Rate - Policy ' + str(j))
ax.set_ylabel('Employment Rate')
handels, labels = ax.get_legend_handles_labels()
ax.legend(loc = 'lower right')
ax.xaxis.set_major_locator(MaxNLocator(integer=True))
ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
fig.tight_layout()
path = os.path.join(folder, 'employmentRate_axScen_P' + str(j) + '.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
def multipleRepeatsGraphs(output, simFolder, p, numPolicies, numScenarios, numRepeats):
# print 'doing mrg...'
folder = simFolder + '/Graphs'
if not os.path.exists(folder):
os.makedirs(folder)
# Add graphs across runs (for the same scenario/policy combinations)
# For each policy scenario, take the average of year 2010-2020 for each run, and do a bar chart with error bars for each outcome of interest
# Policy comparison: make charts by outcomes with bars representing the different policies.
policies = ['Benchmark', 'Policy 1', 'Policy 2', 'Policy 3', 'Policy 4']
for i in range(numScenarios):
scenarioFolder = folder + '/Scenario ' + str(i+1)
if not os.path.exists(scenarioFolder):
os.makedirs(scenarioFolder)
# Share of Unmet Social Care: mean and sd across the n repeats for the 5 policies.
meansOutput = []
sdOutput = []
for j in range(numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'share_UnmetSocialCareNeed'].values[0])
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(policies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Share of Unmet Social Care')
ax.set_xticks(x_pos)
ax.set_xticklabels(policies)
ax.set_title('Shares of Unmet Social Care (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'shareUnmetSocialCareNeed.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# Hours of Unmet Social Care: mean and sd across the n repeats for the 5 policies.
meansOutput = []
sdOutput = []
for j in range(numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0])
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(policies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Hours per week')
ax.set_xticks(x_pos)
ax.set_xticklabels(policies)
ax.set_title('Unmet Social Care Needs (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'hoursUnmetSocialCareNeed.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# Direct policy cost (total)
meansOutput = []
sdOutput = []
for j in range(numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
policyWindow.append(tfc+pc+ps+tfs)
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(policies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per week')
ax.set_xticks(x_pos)
ax.set_xticklabels(policies)
ax.set_title('Direct Policy Cost (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'directPolicyCost.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# ICERD
newPolicies = policies[1:]
meansOutput = []
sdOutput = []
for j in range(1, numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
policyCost = tfc+pc+ps+tfs
tfc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
benchmarkCost = tfc+pc+ps+tfs
deltaCost = policyCost-benchmarkCost
hourUnmetCarePolicy = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0]
hourUnmetCareBenchmark = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0]
deltaCare = hourUnmetCareBenchmark-hourUnmetCarePolicy
policyWindow.append(deltaCost/deltaCare)
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(newPolicies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per hour')
ax.set_xticks(x_pos)
ax.set_xticklabels(newPolicies)
ax.set_title('Direct Cost ICER (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'directICER.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# Hospitalization cost
meansOutput = []
sdOutput = []
for j in range(numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0)
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(policies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per week')
ax.set_xticks(x_pos)
ax.set_xticklabels(policies)
ax.set_title('Hospitalization Costs (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'hospitalizationCosts.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# Total public budget costs
meansOutput = []
sdOutput = []
for j in range(numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0
policyWindow.append(tfc+pc+ps+tfs+hc)
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(policies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per week')
ax.set_xticks(x_pos)
ax.set_xticklabels(policies)
ax.set_title('Public Budget Policy Cost (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'dpublicBudgetPolicyCost.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# ICERB
newPolicies = policies[1:]
meansOutput = []
sdOutput = []
for j in range(1, numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0
policyCost = tfc+pc+ps+tfs+hc
tfc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
hc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0
benchmarkCost = tfc+pc+ps+tfs+hc
deltaCost = policyCost-benchmarkCost
hourUnmetCarePolicy = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0]
hourUnmetCareBenchmark = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0]
deltaCare = hourUnmetCareBenchmark-hourUnmetCarePolicy
policyWindow.append(deltaCost/deltaCare)
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(newPolicies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per hour')
ax.set_xticks(x_pos)
ax.set_xticklabels(newPolicies)
ax.set_title('Budget Cost ICER (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'budgetCostICER.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# Cost of working hours care
meansOutput = []
sdOutput = []
for j in range(numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
policyWindow.append(output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalCostOWSC'].values[0])
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(policies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per week')
ax.set_xticks(x_pos)
ax.set_xticklabels(policies)
ax.set_title('Working Hours Care Costs (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'workingHoursCareCosts.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# Total Policy Costs
meansOutput = []
sdOutput = []
for j in range(numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0
ows = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalCostOWSC'].values[0]
policyWindow.append(tfc+pc+ps+tfs+hc+ows)
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(policies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per week')
ax.set_xticks(x_pos)
ax.set_xticklabels(policies)
ax.set_title('Total Policy Cost (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'totalPolicyCost.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# ICERT
newPolicies = policies[1:]
meansOutput = []
sdOutput = []
for j in range(1, numPolicies):
values = []
for z in range(numRepeats):
policyWindow = []
for yearOutput in range(2025, 2036, 1):
tfc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
hc = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0
ows = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalCostOWSC'].values[0]
policyCost = tfc+pc+ps+tfs+hc+ows
tfc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeChildCare'].values[0]
pc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicChildCare'].values[0]
ps = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costPublicSocialCare'].values[0]
tfs = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'costTaxFreeSocialCare'].values[0]
hc = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalHospitalizationCost'].values[0]/52.0
ows = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalCostOWSC'].values[0]
benchmarkCost = tfc+pc+ps+tfs+hc+ows
deltaCost = policyCost-benchmarkCost
hourUnmetCarePolicy = output[z][i][j].loc[output[z][i][j]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0]
hourUnmetCareBenchmark = output[z][i][j].loc[output[z][i][0]['year'] == yearOutput, 'totalUnmetSocialCareNeed'].values[0]
deltaCare = hourUnmetCareBenchmark-hourUnmetCarePolicy
policyWindow.append(deltaCost/deltaCare)
values.append(np.mean(policyWindow))
meansOutput.append(np.mean(values))
sdOutput.append(np.std(values))
fig, ax = plt.subplots()
x_pos = np.arange(len(newPolicies))
ax.bar(x_pos, meansOutput, yerr=sdOutput, align='center', alpha=0.5, ecolor='black', capsize=10)
ax.set_ylabel('Pounds per hour')
ax.set_xticks(x_pos)
ax.set_xticklabels(newPolicies)
ax.set_title('Total Cost ICER (mean 2025-2035)')
ax.yaxis.grid(True)
fig.tight_layout()
path = os.path.join(scenarioFolder, 'totalCostICER.pdf')
pp = PdfPages(path)
pp.savefig(fig)
pp.close()
# for j in range(numPolicies):
# for i in range(numScenarios):
# fig, ax = plt.subplots() # Argument: figsize=(5, 3)
# graph = []
# for z in range(numRepeats):
# graph.append(ax.plot(output[z][i][j]['year'], output[z][i][j]['currentPop'], label = 'Run ' + str(z+1)))
# ax.set_title('Populations - ' + 'Scenario ' + str(i+1) + '/Policy ' + str(j))
# ax.set_ylabel('Number of people')
# handels, labels = ax.get_legend_handles_labels()
# ax.legend(loc = 'lower right')
# ax.xaxis.set_major_locator(MaxNLocator(integer=True))
# ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
# ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
# fig.tight_layout()
# path = os.path.join(folder, 'popGrowth_axRep_S' + str(i+1) + '_P' + str(j) + '.pdf')
# pp = PdfPages(path)
# pp.savefig(fig)
# pp.close()
#
# for j in range(numPolicies):
# for i in range(numScenarios):
# fig, ax = plt.subplots() # Argument: figsize=(5, 3)
# graph = []
# for z in range(numRepeats):
# graph.append(ax.plot(output[z][i][j]['year'], output[z][i][j]['share_UnmetSocialCareNeed'], label = 'Run ' + str(z+1)))
# ax.set_title('Unmet Care Needs - ' + 'Scenario ' + str(i+1) + '/Policy ' + str(j))
# ax.set_ylabel('Unmet Care Needs (share)')
# handels, labels = ax.get_legend_handles_labels()
# ax.legend(loc = 'lower right')
# ax.xaxis.set_major_locator(MaxNLocator(integer=True))
# ax.set_xlim(left = int(p['statsCollectFrom']), right = int(p['endYear']))
# ax.set_xticks(range(int(p['statsCollectFrom']), int(p['endYear'])+1, 20))
# fig.tight_layout()
# path = os.path.join(folder, 'shareUnmetSocialCareNeeds_axRep_S' + str(i+1) + '_P' + str(j) + '.pdf')
# pp = PdfPages(path)
# pp.savefig(fig)
# pp.close()
mP = pd.read_csv('metaParameters.csv', sep=',', header=0)
numberRows = mP.shape[0]
keys = list(mP.columns.values)
values = []
for column in mP:
colValues = []
for i in range(numberRows):
if pd.isnull(mP.loc[i, column]):
break
colValues.append(mP[column][i])
values.append(colValues)
metaParams = OrderedDict(zip(keys, values))
for key, value in metaParams.iteritems():
if len(value) < 2:
metaParams[key] = value[0]
graphsParams = pd.read_csv('graphsParams.csv', sep=',', header=0)
dummy = list(graphsParams['doGraphs'])
for i in range(len(dummy)):
if dummy[i] == 1:
doGraphs(graphsParams.loc[i], metaParams)
| 46.660321 | 153 | 0.606431 | 9,695 | 78,436 | 4.826199 | 0.046931 | 0.029387 | 0.030092 | 0.018465 | 0.838064 | 0.815409 | 0.807031 | 0.789399 | 0.777816 | 0.758688 | 0 | 0.018393 | 0.229882 | 78,436 | 1,680 | 154 | 46.688095 | 0.756212 | 0.091323 | 0 | 0.759972 | 0 | 0 | 0.176145 | 0.04711 | 0 | 0 | 0 | 0 | 0 | 1 | 0.003561 | false | 0 | 0.005698 | 0 | 0.009259 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
61af0ac365af3ea48f79e46c71cfaee3b5c9e235 | 24,920 | py | Python | monitoring/tests/system/test_vpcsc_v3.py | hugovk/google-cloud-python | b387134827dbc3be0e1b431201e0875798002fda | [
"Apache-2.0"
] | 1 | 2019-03-26T21:44:51.000Z | 2019-03-26T21:44:51.000Z | monitoring/tests/system/test_vpcsc_v3.py | hugovk/google-cloud-python | b387134827dbc3be0e1b431201e0875798002fda | [
"Apache-2.0"
] | 40 | 2019-07-16T10:04:48.000Z | 2020-01-20T09:04:59.000Z | monitoring/tests/system/test_vpcsc_v3.py | hugovk/google-cloud-python | b387134827dbc3be0e1b431201e0875798002fda | [
"Apache-2.0"
] | 2 | 2019-07-18T00:05:31.000Z | 2019-11-27T14:17:22.000Z | # -*- coding: utf-8 -*-
#
# flake8: noqa
#
# DO NOT MODIFY! THIS FILE IS AUTO-GENERATED.
# This file is auto-generated on 11 Oct 19 21:43 UTC.
# Copyright 2019 Google LLC
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# https://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
import os
import pytest
from google.api_core import exceptions
from google.cloud import monitoring_v3
from google.cloud.monitoring_v3 import enums
from test_utils.vpcsc_config import vpcsc_config
_VPCSC_PROHIBITED_MESSAGE = "Request is prohibited by organization's policy"
@pytest.fixture(scope="module")
def aps_client():
return monitoring_v3.AlertPolicyServiceClient()
@pytest.fixture(scope="module")
def name_inside(aps_client):
return aps_client.project_path(vpcsc_config.project_inside)
@pytest.fixture(scope="module")
def name_outside(aps_client):
return aps_client.project_path(vpcsc_config.project_outside)
@pytest.fixture(scope="module")
def alert_policy_path_inside(aps_client):
alert_policy_id = "mock_alert_policy"
return aps_client.alert_policy_path(vpcsc_config.project_inside, alert_policy_id)
@pytest.fixture(scope="module")
def alert_policy_path_outside(aps_client):
alert_policy_id = "mock_alert_policy"
return aps_client.alert_policy_path(vpcsc_config.project_outside, alert_policy_id)
@vpcsc_config.skip_unless_inside_vpcsc
class TestCRUDAlertPolicies(object):
@staticmethod
def test_create_alert_policy_inside(aps_client, name_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
aps_client.create_alert_policy(name_inside, {})
@staticmethod
def test_create_alert_policy_outside(aps_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
aps_client.create_alert_policy(name_outside, {})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_alert_policies_inside(aps_client, name_inside):
list(aps_client.list_alert_policies(name_inside))
@staticmethod
def test_list_alert_policies_outside(aps_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(aps_client.list_alert_policies(name_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_alert_policy_inside(aps_client, alert_policy_path_inside):
with pytest.raises(exceptions.NotFound): # no perms issue
aps_client.get_alert_policy(alert_policy_path_inside)
@staticmethod
def test_get_alert_policy_outside(aps_client, alert_policy_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
aps_client.get_alert_policy(alert_policy_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_update_alert_policy_inside(aps_client, alert_policy_path_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
aps_client.update_alert_policy({"name": alert_policy_path_inside})
@staticmethod
def test_update_alert_policy_outside(aps_client, alert_policy_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
aps_client.update_alert_policy({"name": alert_policy_path_outside})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_delete_alert_policy_inside(aps_client, alert_policy_path_inside):
with pytest.raises(exceptions.NotFound): # no perms issue
aps_client.delete_alert_policy(alert_policy_path_inside)
@staticmethod
def test_delete_alert_policy_outside(aps_client, alert_policy_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
aps_client.delete_alert_policy(alert_policy_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@pytest.fixture(scope="module")
def gs_client():
return monitoring_v3.GroupServiceClient()
@pytest.fixture(scope="module")
def group_path_inside(gs_client):
group_id = "mock_group"
return gs_client.group_path(vpcsc_config.project_inside, group_id)
@pytest.fixture(scope="module")
def group_path_outside(gs_client):
group_id = "mock_group"
return gs_client.group_path(vpcsc_config.project_outside, group_id)
@vpcsc_config.skip_unless_inside_vpcsc
class TestCRUDGroups(object):
@staticmethod
def test_create_group_inside(gs_client, name_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
gs_client.create_group(name_inside, {})
@staticmethod
def test_create_group_outside(gs_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
gs_client.create_group(name_outside, {})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_groups_inside(gs_client, name_inside):
list(gs_client.list_groups(name_inside))
@staticmethod
def test_list_groups_outside(gs_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(gs_client.list_groups(name_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_group_inside(gs_client, group_path_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
gs_client.get_group(group_path_inside)
@staticmethod
def test_get_group_outside(gs_client, group_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
gs_client.get_group(group_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_group_members_inside(gs_client, group_path_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
list(gs_client.list_group_members(group_path_inside))
@staticmethod
def test_list_group_members_outside(gs_client, group_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(gs_client.list_group_members(group_path_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_update_group_inside(gs_client, group_path_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
gs_client.update_group({"name": group_path_inside})
@staticmethod
def test_update_group_outside(gs_client, group_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
gs_client.update_group({"name": group_path_outside})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_delete_group_inside(gs_client, group_path_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
gs_client.delete_group(group_path_inside)
@staticmethod
def test_delete_group_outside(gs_client, group_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
gs_client.delete_group(group_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@pytest.fixture(scope="module")
def ms_client():
return monitoring_v3.MetricServiceClient()
@pytest.fixture(scope="module")
def metric_descriptor_path_inside(ms_client):
metric_descriptor_id = "mock_metric_descriptor"
return ms_client.metric_descriptor_path(
vpcsc_config.project_inside, metric_descriptor_id
)
@pytest.fixture(scope="module")
def metric_descriptor_path_outside(ms_client):
metric_descriptor_id = "mock_metric_descriptor"
return ms_client.metric_descriptor_path(
vpcsc_config.project_outside, metric_descriptor_id
)
@vpcsc_config.skip_unless_inside_vpcsc
class TestCRUDMetricDescriptors(object):
@staticmethod
def test_create_metric_descriptor_inside(ms_client, name_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
ms_client.create_metric_descriptor(name_inside, {})
@staticmethod
def test_create_metric_descriptor_outside(ms_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
ms_client.create_metric_descriptor(name_outside, {})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_metric_descriptors_inside(ms_client, name_inside):
list(ms_client.list_metric_descriptors(name_inside))
@staticmethod
def test_list_metric_descriptors_outside(ms_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(ms_client.list_metric_descriptors(name_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_metric_descriptor_inside(ms_client, metric_descriptor_path_inside):
with pytest.raises(exceptions.NotFound): # no perms issue
ms_client.get_metric_descriptor(metric_descriptor_path_inside)
@staticmethod
def test_get_metric_descriptor_outside(ms_client, metric_descriptor_path_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
ms_client.get_metric_descriptor(metric_descriptor_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_delete_metric_descriptor_inside(ms_client, metric_descriptor_path_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
ms_client.delete_metric_descriptor(metric_descriptor_path_inside)
@staticmethod
def test_delete_metric_descriptor_outside(
ms_client, metric_descriptor_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ms_client.delete_metric_descriptor(metric_descriptor_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@vpcsc_config.skip_unless_inside_vpcsc
class TestCRUDTimeSeries(object):
@staticmethod
def test_create_time_series_inside(ms_client, name_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
ms_client.create_time_series(name_inside, {})
@staticmethod
def test_create_time_series_outside(ms_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
ms_client.create_time_series(name_outside, {})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_time_series_inside(ms_client, name_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
list(
ms_client.list_time_series(
name_inside, "", {}, enums.ListTimeSeriesRequest.TimeSeriesView.FULL
)
)
@staticmethod
def test_list_time_series_outside(ms_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(
ms_client.list_time_series(
name_outside,
"",
{},
enums.ListTimeSeriesRequest.TimeSeriesView.FULL,
)
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@pytest.fixture(scope="module")
def monitored_resource_descriptor_path_inside(ms_client):
monitored_resource_descriptor_id = "mock_monitored_resource_descriptor"
return ms_client.monitored_resource_descriptor_path(
vpcsc_config.project_inside, monitored_resource_descriptor_id
)
@pytest.fixture(scope="module")
def monitored_resource_descriptor_path_outside(ms_client):
monitored_resource_descriptor_id = "mock_monitored_resource_descriptor"
return ms_client.monitored_resource_descriptor_path(
vpcsc_config.project_outside, monitored_resource_descriptor_id
)
@vpcsc_config.skip_unless_inside_vpcsc
class TestCRUDMonitoredResourceDescriptor(object):
@staticmethod
def test_list_monitored_resource_descriptors_inside(ms_client, name_inside):
list(ms_client.list_monitored_resource_descriptors(name_inside))
@staticmethod
def test_list_monitored_resource_descriptors_outside(ms_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(ms_client.list_monitored_resource_descriptors(name_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_monitored_resource_descriptor_inside(
ms_client, monitored_resource_descriptor_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ms_client.get_monitored_resource_descriptor(
monitored_resource_descriptor_path_inside
)
@staticmethod
def test_get_monitored_resource_descriptor_outside(
ms_client, monitored_resource_descriptor_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ms_client.get_monitored_resource_descriptor(
monitored_resource_descriptor_path_outside
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@pytest.fixture(scope="module")
def ncs_client():
return monitoring_v3.NotificationChannelServiceClient()
@pytest.fixture(scope="module")
def notification_channel_path_inside(ncs_client):
notification_channel_id = "mock_notification_channel"
return ncs_client.notification_channel_path(
vpcsc_config.project_inside, notification_channel_id
)
@pytest.fixture(scope="module")
def notification_channel_descriptor_path_inside(ncs_client):
notification_channel_descriptor_id = "mock_notification_channel_descriptor"
return ncs_client.notification_channel_descriptor_path(
vpcsc_config.project_inside, notification_channel_descriptor_id
)
@pytest.fixture(scope="module")
def notification_channel_path_outside(ncs_client):
notification_channel_id = "mock_notification_channel"
return ncs_client.notification_channel_path(
vpcsc_config.project_outside, notification_channel_id
)
@pytest.fixture(scope="module")
def notification_channel_descriptor_path_outside(ncs_client):
notification_channel_descriptor_id = "mock_notification_channel_descriptor"
return ncs_client.notification_channel_descriptor_path(
vpcsc_config.project_outside, notification_channel_descriptor_id
)
@vpcsc_config.skip_unless_inside_vpcsc
class TestCRUDNotificationChannels(object):
@staticmethod
def test_create_notification_channel_inside(ncs_client, name_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
ncs_client.create_notification_channel(name_inside, {})
@staticmethod
def test_create_notification_channel_outside(ncs_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.create_notification_channel(name_outside, {})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_notification_channels_inside(ncs_client, name_inside):
list(ncs_client.list_notification_channels(name_inside))
@staticmethod
def test_list_notification_channels_outside(ncs_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(ncs_client.list_notification_channels(name_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_notification_channel_inside(
ncs_client, notification_channel_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ncs_client.get_notification_channel(notification_channel_path_inside)
@staticmethod
def test_get_notification_channel_outside(
ncs_client, notification_channel_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.get_notification_channel(notification_channel_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_notification_channel_verification_code_inside(
ncs_client, notification_channel_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ncs_client.get_notification_channel_verification_code(
notification_channel_path_inside
)
@staticmethod
def test_get_notification_channel_verification_code_outside(
ncs_client, notification_channel_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.get_notification_channel_verification_code(
notification_channel_path_outside
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_send_notification_channel_verification_code_inside(
ncs_client, notification_channel_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ncs_client.send_notification_channel_verification_code(
notification_channel_path_inside
)
@staticmethod
def test_send_notification_channel_verification_code_outside(
ncs_client, notification_channel_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.send_notification_channel_verification_code(
notification_channel_path_outside
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_verify_notification_channel_inside(
ncs_client, notification_channel_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ncs_client.verify_notification_channel(notification_channel_path_inside, "")
@staticmethod
def test_verify_notification_channel_outside(
ncs_client, notification_channel_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.verify_notification_channel(
notification_channel_path_outside, ""
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_update_notification_channel_inside(
ncs_client, notification_channel_path_inside
):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
ncs_client.update_notification_channel(
{"name": notification_channel_path_inside}
)
@staticmethod
def test_update_notification_channel_outside(
ncs_client, notification_channel_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.update_notification_channel(
{"name": notification_channel_path_outside}
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_delete_notification_channel_inside(
ncs_client, notification_channel_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ncs_client.delete_notification_channel(notification_channel_path_inside)
@staticmethod
def test_delete_notification_channel_outside(
ncs_client, notification_channel_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.delete_notification_channel(notification_channel_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_notification_channel_descriptors_inside(ncs_client, name_inside):
list(ncs_client.list_notification_channel_descriptors(name_inside))
@staticmethod
def test_list_notification_channel_descriptors_outside(ncs_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(ncs_client.list_notification_channel_descriptors(name_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_notification_channel_descriptor_inside(
ncs_client, notification_channel_descriptor_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ncs_client.get_notification_channel_descriptor(
notification_channel_descriptor_path_inside
)
@staticmethod
def test_get_notification_channel_descriptor_outside(
ncs_client, notification_channel_descriptor_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ncs_client.get_notification_channel_descriptor(
notification_channel_descriptor_path_outside
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@pytest.fixture(scope="module")
def ucc_client():
return monitoring_v3.UptimeCheckServiceClient()
@pytest.fixture(scope="module")
def uptime_check_config_path_inside(ucc_client):
uptime_check_config_id = "mock_notification_channel"
return ucc_client.uptime_check_config_path(
vpcsc_config.project_inside, uptime_check_config_id
)
@pytest.fixture(scope="module")
def uptime_check_config_path_outside(ucc_client):
uptime_check_config_id = "mock_notification_channel"
return ucc_client.uptime_check_config_path(
vpcsc_config.project_outside, uptime_check_config_id
)
@vpcsc_config.skip_unless_inside_vpcsc
class TestCRUDUptimeCheckConfigs(object):
@staticmethod
def test_create_uptime_check_config_inside(ucc_client, name_inside):
with pytest.raises(exceptions.InvalidArgument): # no perms issue
ucc_client.create_uptime_check_config(name_inside, {})
@staticmethod
def test_create_uptime_check_config_outside(ucc_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
ucc_client.create_uptime_check_config(name_outside, {})
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_list_uptime_check_configs_inside(ucc_client, name_inside):
list(ucc_client.list_uptime_check_configs(name_inside))
@staticmethod
def test_list_uptime_check_configs_outside(ucc_client, name_outside):
with pytest.raises(exceptions.PermissionDenied) as exc:
list(ucc_client.list_uptime_check_configs(name_outside))
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_get_uptime_check_config_inside(
ucc_client, uptime_check_config_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ucc_client.get_uptime_check_config(uptime_check_config_path_inside)
@staticmethod
def test_get_uptime_check_config_outside(
ucc_client, uptime_check_config_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ucc_client.get_uptime_check_config(uptime_check_config_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_update_uptime_check_config_inside(
ucc_client, uptime_check_config_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ucc_client.update_uptime_check_config(
{"name": uptime_check_config_path_inside}
)
@staticmethod
def test_update_uptime_check_config_outside(
ucc_client, uptime_check_config_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ucc_client.update_uptime_check_config(
{"name": uptime_check_config_path_outside}
)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
@staticmethod
def test_delete_uptime_check_config_inside(
ucc_client, uptime_check_config_path_inside
):
with pytest.raises(exceptions.NotFound): # no perms issue
ucc_client.delete_uptime_check_config(uptime_check_config_path_inside)
@staticmethod
def test_delete_uptime_check_config_outside(
ucc_client, uptime_check_config_path_outside
):
with pytest.raises(exceptions.PermissionDenied) as exc:
ucc_client.delete_uptime_check_config(uptime_check_config_path_outside)
assert _VPCSC_PROHIBITED_MESSAGE in exc.value.message
| 36.863905 | 88 | 0.753973 | 2,928 | 24,920 | 5.984973 | 0.059085 | 0.093244 | 0.073727 | 0.090504 | 0.921536 | 0.901221 | 0.837024 | 0.775622 | 0.734307 | 0.687058 | 0 | 0.00123 | 0.184631 | 24,920 | 675 | 89 | 36.918519 | 0.861214 | 0.043419 | 0 | 0.552 | 1 | 0 | 0.022782 | 0.011937 | 0 | 0 | 0 | 0 | 0.068 | 1 | 0.178 | false | 0 | 0.012 | 0.014 | 0.246 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
61c68d640b924eca1c079ae4f9c87625028e4368 | 533 | py | Python | Codewars/8kyu/count-of-positives-slash-sum-of-negatives/Python/test.py | RevansChen/online-judge | ad1b07fee7bd3c49418becccda904e17505f3018 | [
"MIT"
] | 7 | 2017-09-20T16:40:39.000Z | 2021-08-31T18:15:08.000Z | Codewars/8kyu/count-of-positives-slash-sum-of-negatives/Python/test.py | RevansChen/online-judge | ad1b07fee7bd3c49418becccda904e17505f3018 | [
"MIT"
] | null | null | null | Codewars/8kyu/count-of-positives-slash-sum-of-negatives/Python/test.py | RevansChen/online-judge | ad1b07fee7bd3c49418becccda904e17505f3018 | [
"MIT"
] | null | null | null | # Python - 3.4.3
Test.describe("Basic tests")
Test.assert_equals(count_positives_sum_negatives([1, 2, 3, 4, 5, 6, 7, 8, 9, 10, -11, -12, -13, -14, -15]),[10,-65])
Test.assert_equals(count_positives_sum_negatives([0, 2, 3, 0, 5, 6, 7, 8, 9, 10, -11, -12, -13, -14]),[8,-50])
Test.assert_equals(count_positives_sum_negatives([1]),[1,0])
Test.assert_equals(count_positives_sum_negatives([-1]),[0,-1])
Test.assert_equals(count_positives_sum_negatives([0,0,0,0,0,0,0,0,0]),[0,0])
Test.assert_equals(count_positives_sum_negatives([]),[])
| 53.3 | 116 | 0.69606 | 100 | 533 | 3.47 | 0.29 | 0.057637 | 0.07781 | 0.092219 | 0.85879 | 0.85879 | 0.85879 | 0.85879 | 0.118156 | 0.118156 | 0 | 0.135903 | 0.075047 | 533 | 9 | 117 | 59.222222 | 0.567951 | 0.026266 | 0 | 0 | 0 | 0 | 0.021277 | 0 | 0 | 0 | 0 | 0 | 0.857143 | 1 | 0 | true | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
f6095c9556dc6e4f803079cd0a92c7a021954580 | 26,153 | py | Python | infoblox_netmri/api/broker/v3_8_0/auth_cac_cert_broker.py | infobloxopen/infoblox_netmri | aa1c744df7e439dbe163bb9edd165e4e85a9771b | [
"Apache-2.0"
] | 12 | 2016-02-19T12:37:54.000Z | 2022-03-04T20:11:08.000Z | infoblox_netmri/api/broker/v3_8_0/auth_cac_cert_broker.py | infobloxopen/infoblox_netmri | aa1c744df7e439dbe163bb9edd165e4e85a9771b | [
"Apache-2.0"
] | 18 | 2015-11-12T18:37:00.000Z | 2021-05-19T07:59:55.000Z | infoblox_netmri/api/broker/v3_8_0/auth_cac_cert_broker.py | infobloxopen/infoblox_netmri | aa1c744df7e439dbe163bb9edd165e4e85a9771b | [
"Apache-2.0"
] | 18 | 2016-01-07T12:04:34.000Z | 2022-03-31T11:05:41.000Z | from ..broker import Broker
class AuthCacCertBroker(Broker):
controller = "auth_cac_certs"
def index(self, **kwargs):
"""Lists the available auth cac certs. Any of the inputs listed may be be used to narrow the list; other inputs will be ignored. Of the various ways to query lists, using this method is most efficient.
**Inputs**
| ``api version min:`` 3.7
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param auth_server_id: ID of auth server of OCSP auth service
:type auth_server_id: Array of Integer
| ``api version min:`` 3.7
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param id: Record ID
:type id: Array of Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` 0
:param start: The record number to return in the selected page of data. It will always appear, although it may not be the first record. See the :limit for more information.
:type start: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` 1000
:param limit: The size of the page of data, that is, the maximum number of records returned. The limit size will be used to break the data up into pages and the first page with the start record will be returned. So if you have 100 records and use a :limit of 10 and a :start of 10, you will get records 10-19. The maximum limit is 10000.
:type limit: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` id
:param sort: The data field(s) to use for sorting the output. Default is id. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert.
:type sort: Array of String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` asc
:param dir: The direction(s) in which to sort the data. Default is 'asc'. Valid values are 'asc' and 'desc'.
:type dir: Array of String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param select: The list of attributes to return for each AuthCacCert. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. If empty or omitted, all attributes will be returned.
:type select: Array
| ``api version min:`` 2.8
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param goto_field: The field name for NIOS GOTO that is used for locating a row position of records.
:type goto_field: String
| ``api version min:`` 2.8
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param goto_value: The value of goto_field for NIOS GOTO that is used for locating a row position of records.
:type goto_value: String
**Outputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return auth_cac_certs: An array of the AuthCacCert objects that match the specified input criteria.
:rtype auth_cac_certs: Array of AuthCacCert
"""
return self.api_list_request(self._get_method_fullname("index"), kwargs)
def show(self, **kwargs):
"""Shows the details for the specified auth cac cert.
**Inputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` True
| ``default:`` None
:param id: Record ID
:type id: Integer
**Outputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return auth_cac_cert: The auth cac cert identified by the specified id.
:rtype auth_cac_cert: AuthCacCert
"""
return self.api_request(self._get_method_fullname("show"), kwargs)
def search(self, **kwargs):
"""Lists the available auth cac certs matching the input criteria. This method provides a more flexible search interface than the index method, but searching using this method is more demanding on the system and will not perform to the same level as the index method. The input fields listed below will be used as in the index method, to filter the result, along with the optional query string and XML filter described below.
**Inputs**
| ``api version min:`` 3.7
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param auth_server_id: ID of auth server of OCSP auth service
:type auth_server_id: Array of Integer
| ``api version min:`` 3.7
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param id: Record ID
:type id: Array of Integer
| ``api version min:`` 3.7
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param is_ocsp_cert: Use cert in OCSP requests if TRUE
:type is_ocsp_cert: Array of Boolean
| ``api version min:`` 3.7
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param uploaded_certificate_id: ID of linked uploaded certificate
:type uploaded_certificate_id: Array of Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` 0
:param start: The record number to return in the selected page of data. It will always appear, although it may not be the first record. See the :limit for more information.
:type start: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` 1000
:param limit: The size of the page of data, that is, the maximum number of records returned. The limit size will be used to break the data up into pages and the first page with the start record will be returned. So if you have 100 records and use a :limit of 10 and a :start of 10, you will get records 10-19. The maximum limit is 10000.
:type limit: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` id
:param sort: The data field(s) to use for sorting the output. Default is id. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert.
:type sort: Array of String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` asc
:param dir: The direction(s) in which to sort the data. Default is 'asc'. Valid values are 'asc' and 'desc'.
:type dir: Array of String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param select: The list of attributes to return for each AuthCacCert. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. If empty or omitted, all attributes will be returned.
:type select: Array
| ``api version min:`` 2.8
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param goto_field: The field name for NIOS GOTO that is used for locating a row position of records.
:type goto_field: String
| ``api version min:`` 2.8
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param goto_value: The value of goto_field for NIOS GOTO that is used for locating a row position of records.
:type goto_value: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param query: This value will be matched against auth cac certs, looking to see if one or more of the listed attributes contain the passed value. You may also surround the value with '/' and '/' to perform a regular expression search rather than a containment operation. Any record that matches will be returned. The attributes searched are: auth_server_id, id, is_ocsp_cert, uploaded_certificate_id.
:type query: String
| ``api version min:`` 2.3
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param xml_filter: A SetFilter XML structure to further refine the search. The SetFilter will be applied AFTER any search query or field values, but before any limit options. The limit and pagination will be enforced after the filter. Remind that this kind of filter may be costly and inefficient if not associated with a database filtering.
:type xml_filter: String
**Outputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return auth_cac_certs: An array of the AuthCacCert objects that match the specified input criteria.
:rtype auth_cac_certs: Array of AuthCacCert
"""
return self.api_list_request(self._get_method_fullname("search"), kwargs)
def find(self, **kwargs):
"""Lists the available auth cac certs matching the input specification. This provides the most flexible search specification of all the query mechanisms, enabling searching using comparison operations other than equality. However, it is more complex to use and will not perform as efficiently as the index or search methods. In the input descriptions below, 'field names' refers to the following fields: auth_server_id, id, is_ocsp_cert, uploaded_certificate_id.
**Inputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param op_auth_server_id: The operator to apply to the field auth_server_id. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. auth_server_id: ID of auth server of OCSP auth service For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values.
:type op_auth_server_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_f_auth_server_id: If op_auth_server_id is specified, the field named in this input will be compared to the value in auth_server_id using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_auth_server_id must be specified if op_auth_server_id is specified.
:type val_f_auth_server_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_c_auth_server_id: If op_auth_server_id is specified, this value will be compared to the value in auth_server_id using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_auth_server_id must be specified if op_auth_server_id is specified.
:type val_c_auth_server_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param op_id: The operator to apply to the field id. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. id: Record ID For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values.
:type op_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_f_id: If op_id is specified, the field named in this input will be compared to the value in id using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_id must be specified if op_id is specified.
:type val_f_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_c_id: If op_id is specified, this value will be compared to the value in id using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_id must be specified if op_id is specified.
:type val_c_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param op_is_ocsp_cert: The operator to apply to the field is_ocsp_cert. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. is_ocsp_cert: Use cert in OCSP requests if TRUE For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values.
:type op_is_ocsp_cert: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_f_is_ocsp_cert: If op_is_ocsp_cert is specified, the field named in this input will be compared to the value in is_ocsp_cert using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_is_ocsp_cert must be specified if op_is_ocsp_cert is specified.
:type val_f_is_ocsp_cert: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_c_is_ocsp_cert: If op_is_ocsp_cert is specified, this value will be compared to the value in is_ocsp_cert using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_is_ocsp_cert must be specified if op_is_ocsp_cert is specified.
:type val_c_is_ocsp_cert: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param op_uploaded_certificate_id: The operator to apply to the field uploaded_certificate_id. Valid values are: =, <>, rlike, not rlike, >, >=, <, <=, like, not like, is null, is not null, between. uploaded_certificate_id: ID of linked uploaded certificate For the between operator the value will be treated as an Array if comma delimited string is passed, and it must contain an even number of values.
:type op_uploaded_certificate_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_f_uploaded_certificate_id: If op_uploaded_certificate_id is specified, the field named in this input will be compared to the value in uploaded_certificate_id using the specified operator. That is, the value in this input will be treated as another field name, rather than a constant value. Either this field or val_c_uploaded_certificate_id must be specified if op_uploaded_certificate_id is specified.
:type val_f_uploaded_certificate_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param val_c_uploaded_certificate_id: If op_uploaded_certificate_id is specified, this value will be compared to the value in uploaded_certificate_id using the specified operator. The value in this input will be treated as an explicit constant value. Either this field or val_f_uploaded_certificate_id must be specified if op_uploaded_certificate_id is specified.
:type val_c_uploaded_certificate_id: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` 0
:param start: The record number to return in the selected page of data. It will always appear, although it may not be the first record. See the :limit for more information.
:type start: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` 1000
:param limit: The size of the page of data, that is, the maximum number of records returned. The limit size will be used to break the data up into pages and the first page with the start record will be returned. So if you have 100 records and use a :limit of 10 and a :start of 10, you will get records 10-19. The maximum limit is 10000.
:type limit: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` id
:param sort: The data field(s) to use for sorting the output. Default is id. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert.
:type sort: Array of String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` asc
:param dir: The direction(s) in which to sort the data. Default is 'asc'. Valid values are 'asc' and 'desc'.
:type dir: Array of String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param select: The list of attributes to return for each AuthCacCert. Valid values are id, auth_server_id, uploaded_certificate_id, is_ocsp_cert. If empty or omitted, all attributes will be returned.
:type select: Array
| ``api version min:`` 2.8
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param goto_field: The field name for NIOS GOTO that is used for locating a row position of records.
:type goto_field: String
| ``api version min:`` 2.8
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param goto_value: The value of goto_field for NIOS GOTO that is used for locating a row position of records.
:type goto_value: String
| ``api version min:`` 2.3
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param xml_filter: A SetFilter XML structure to further refine the search. The SetFilter will be applied AFTER any search query or field values, but before any limit options. The limit and pagination will be enforced after the filter. Remind that this kind of filter may be costly and inefficient if not associated with a database filtering.
:type xml_filter: String
**Outputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return auth_cac_certs: An array of the AuthCacCert objects that match the specified input criteria.
:rtype auth_cac_certs: Array of AuthCacCert
"""
return self.api_list_request(self._get_method_fullname("find"), kwargs)
def create(self, **kwargs):
"""Creates a new auth cac cert.
**Inputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` True
| ``default:`` None
:param auth_server_id: ID of auth server of OCSP auth service
:type auth_server_id: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` True
| ``default:`` None
:param uploaded_certificate_id: ID of linked uploaded certificate
:type uploaded_certificate_id: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` True
:param is_ocsp_cert: Use cert in OCSP requests if TRUE
:type is_ocsp_cert: Boolean
**Outputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return id: The id of the newly created auth cac cert.
:rtype id: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return model: The class name of the newly created auth cac cert.
:rtype model: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return uri: A URI that may be used to retrieve the newly created auth cac cert.
:rtype uri: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return auth_cac_cert: The newly created auth cac cert.
:rtype auth_cac_cert: AuthCacCert
"""
return self.api_request(self._get_method_fullname("create"), kwargs)
def update(self, **kwargs):
"""Updates an existing auth cac cert.
**Inputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` True
| ``default:`` None
:param id: Record ID
:type id: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param auth_server_id: ID of auth server of OCSP auth service If omitted, this field will not be updated.
:type auth_server_id: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param uploaded_certificate_id: ID of linked uploaded certificate If omitted, this field will not be updated.
:type uploaded_certificate_id: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:param is_ocsp_cert: Use cert in OCSP requests if TRUE If omitted, this field will not be updated.
:type is_ocsp_cert: Boolean
**Outputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return id: The id of the updated auth cac cert.
:rtype id: Integer
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return model: The class name of the updated auth cac cert.
:rtype model: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return uri: A URI that may be used to retrieve the updated auth cac cert.
:rtype uri: String
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` False
| ``default:`` None
:return auth_cac_cert: The updated auth cac cert.
:rtype auth_cac_cert: AuthCacCert
"""
return self.api_request(self._get_method_fullname("update"), kwargs)
def destroy(self, **kwargs):
"""Deletes the specified auth cac cert from NetMRI.
**Inputs**
| ``api version min:`` None
| ``api version max:`` None
| ``required:`` True
| ``default:`` None
:param id: Record ID
:type id: Integer
**Outputs**
"""
return self.api_request(self._get_method_fullname("destroy"), kwargs)
| 44.553663 | 470 | 0.578289 | 3,317 | 26,153 | 4.459451 | 0.077781 | 0.085181 | 0.055368 | 0.072404 | 0.902312 | 0.899811 | 0.897647 | 0.893186 | 0.87669 | 0.869794 | 0 | 0.005212 | 0.332352 | 26,153 | 586 | 471 | 44.629693 | 0.841933 | 0.778916 | 0 | 0 | 0 | 0 | 0.055085 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.411765 | false | 0 | 0.058824 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 8 |
f666f7187a94b099d60c711ba26c1c7802954772 | 167 | py | Python | test/test_sum.py | andreselmomoy/tarea_1 | 344f47d8cea1447b77ff73e0c30d7a263e85f11d | [
"Apache-2.0"
] | 4 | 2020-08-31T15:15:58.000Z | 2021-09-28T23:37:42.000Z | test/test_sum.py | andreselmomoy/tarea_1 | 344f47d8cea1447b77ff73e0c30d7a263e85f11d | [
"Apache-2.0"
] | null | null | null | test/test_sum.py | andreselmomoy/tarea_1 | 344f47d8cea1447b77ff73e0c30d7a263e85f11d | [
"Apache-2.0"
] | 14 | 2020-08-21T00:57:58.000Z | 2022-03-25T17:56:01.000Z | def test_sum_two_correctly():
assert 2 + 2 == 4
def test_sum_two_incorrectly():
# Expected to fail. Replace by
# assert 3 + 3 == 6
assert 3 + 3 == 5
| 18.555556 | 34 | 0.610778 | 27 | 167 | 3.555556 | 0.62963 | 0.145833 | 0.208333 | 0.270833 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.075 | 0.281437 | 167 | 8 | 35 | 20.875 | 0.725 | 0.275449 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.5 | 1 | 0.5 | true | 0 | 0 | 0 | 0.5 | 0 | 1 | 0 | 0 | null | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
9caf3635973892bd5c1c1ac119f5d41cc4c123eb | 29,275 | py | Python | models/SN_mnist.py | MPCAICDM/MPCA | c996435a0578ea4160f934bc01041c2ef23468f3 | [
"MIT"
] | null | null | null | models/SN_mnist.py | MPCAICDM/MPCA | c996435a0578ea4160f934bc01041c2ef23468f3 | [
"MIT"
] | null | null | null | models/SN_mnist.py | MPCAICDM/MPCA | c996435a0578ea4160f934bc01041c2ef23468f3 | [
"MIT"
] | null | null | null | import torch
import torch.nn as nn
from models.blocks.estimator_1D import Estimator1D
from models.blocks.LSA_blocks import DownsampleBlock, UpsampleBlock, ResidualBlock
from functools import reduce
from operator import mul
class _Encoder_LSA(nn.Module):
def __init__(self, in_channels, hidden_layer_sizes, activation, pad_mode, bn, is_flatten=False, flatten_size=0):
super(_Encoder_LSA, self).__init__()
self.conv = nn.Sequential(
#nn.Conv2d(in_channels=in_channels, out_channels=hidden_layer_sizes[0], kernel_size=3, bias=False),
#activation,
#ResidualBlock(channel_in=32, channel_out=32, activation_fn=activation, use_bn=False),
DownsampleBlock(channel_in=in_channels, channel_out=32, activation_fn=activation, use_bn=False),
DownsampleBlock(channel_in=32, channel_out=64, activation_fn=activation, use_bn=False),
#DownsampleBlock(channel_in=128, channel_out=256, activation_fn=activation, use_bn=False),
)
self.deepest_shape = (64, 32 // 4, 32 // 4)
# FC network
self.fc = nn.Sequential(
nn.Linear(in_features=reduce(mul, self.deepest_shape), out_features=64),
# nn.BatchNorm1d(num_features=256),
activation,
nn.Linear(in_features=64, out_features=flatten_size),
nn.Tanh() # TODO replace with tanh cause our data are scaled to [-1, 1]
)
def forward(self, x):
h = x
h = self.conv(h)
h = h.view(len(h), -1)
o = self.fc(h)
return o
class _Decoder_LSA(nn.Module):
"""
CIFAR10 model decoder.
"""
def __init__(self, in_channels,out_channels, h_shape, hidden_layer_sizes, activation,pad_mode,bn, group=1,
last_channel=16, add_conv=False):
super(_Decoder_LSA, self).__init__()
self.deepest_shape = (64, 32 // 4, 32 // 4)
# FC network
self.fc = nn.Sequential(
nn.Linear(in_features=in_channels, out_features=64),
#nn.BatchNorm1d(num_features=256),
activation,
nn.Linear(in_features=64, out_features=reduce(mul, self.deepest_shape)),
activation
)
# Convolutional network
self.conv = nn.Sequential(
UpsampleBlock(channel_in=64, channel_out=32, activation_fn=activation, use_bn=False),
UpsampleBlock(channel_in=32, channel_out=16, activation_fn=activation, use_bn=False),
#UpsampleBlock(channel_in=64, channel_out=32, activation_fn=activation, use_bn=False),
#ResidualBlock(channel_in=32, channel_out=32, activation_fn=activation, use_bn=False),
nn.Conv2d(in_channels=16, out_channels=3, kernel_size=1, bias=False)
)
def forward(self, x):
# types: (torch.Tensor) -> torch.Tensor
"""
Forward propagation.
:param x: the batch of latent vectors.
:return: the batch of reconstructions.
"""
h = x
h = self.fc(h)
h = h.view(len(h), *self.deepest_shape)
h = self.conv(h)
o = h
return o
class _Encoder(nn.Module):
def __init__(self, in_channels, hidden_layer_sizes, activation, pad_mode, bn, is_flatten=False, flatten_size=0):
super(_Encoder, self).__init__()
self.activation = activation
self.hidden_layer_sizes = hidden_layer_sizes
layers = []
layers.append(nn.Conv2d(in_channels=in_channels, out_channels=hidden_layer_sizes[0], kernel_size=5, stride=2,
padding=2))
layers.append(self.activation)
if bn:
layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[0]))
layers.append(nn.Conv2d(in_channels=hidden_layer_sizes[0], out_channels=hidden_layer_sizes[1], kernel_size=5, stride=2,
padding=2))
layers.append(self.activation)
if bn:
layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[1]))
layers.append(nn.Conv2d(in_channels=hidden_layer_sizes[1], out_channels=hidden_layer_sizes[2], kernel_size=3, stride=2,
padding=pad_mode))
layers.append(self.activation)
if bn:
layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[2]))
if is_flatten:
h_channels = hidden_layer_sizes[2] * 4 * 4
layers.append(nn.Flatten())
layers.append(nn.Linear(h_channels, flatten_size))
layers.append(nn.Tanh()) # self.activation TODO
self.layers = nn.Sequential(*layers)
print(self.layers)
def forward(self, x):
return self.layers(x)
class _Encoder_Linear(nn.Module):
def __init__(self, in_channels, hidden_layer_sizes, activation, bn, last_activ=None, is_flatten=False, flatten_size=None):
super(_Encoder_Linear, self).__init__()
self.activation = activation
self.hidden_layer_sizes = hidden_layer_sizes
layers = []
if last_activ is None:
for ic, oc in zip([in_channels] + hidden_layer_sizes[:-1], hidden_layer_sizes):
layers.append(nn.Linear(in_features=ic, out_features=oc))
layers.append(self.activation)
if bn :
layers.append( nn.BatchNorm1d(num_features=oc))
else:
for ic, oc in zip([in_channels] + hidden_layer_sizes[:-1], hidden_layer_sizes):
layers.append(nn.Linear(in_features=ic, out_features=oc))
layers.append(self.activation)
layers = layers[:-1]
layers.append(last_activ)
if is_flatten:
h_channels = hidden_layer_sizes[-1]
layers.append(nn.Linear(in_features=h_channels, out_features=flatten_size))
layers.append(self.activation)
self.layers = nn.Sequential(*layers)
print(self.layers)
def forward(self, x):
return self.layers(x)
class _Decoder(nn.Module):
def __init__(self, in_channels,out_channels, h_shape, hidden_layer_sizes, activation,pad_mode,bn, group=1,
last_channel=16, add_conv=False):
super(_Decoder, self).__init__()
self.activation = activation
self.hidden_layer_sizes = hidden_layer_sizes
self.h_shape = h_shape
h_channels = h_shape[0]*h_shape[1]*h_shape[2]
self.fc = nn.Linear(in_features=in_channels, out_features=h_channels)
self.bnlayer = nn.BatchNorm2d(num_features=h_shape[0]) if bn else None
layers = []
layers.append(nn.ConvTranspose2d(in_channels=h_shape[0], out_channels=hidden_layer_sizes[1], kernel_size=3, stride=2,
padding=pad_mode, output_padding=pad_mode))
layers.append(self.activation)
if bn:
layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[1]))
layers.append(
nn.ConvTranspose2d(in_channels=hidden_layer_sizes[1], out_channels=hidden_layer_sizes[0], kernel_size=5,
stride=2,padding=2, output_padding=1))
layers.append(self.activation)
if bn:
layers.append(nn.BatchNorm2d(num_features=hidden_layer_sizes[0]))
self.group = group
if add_conv:
layers.append(nn.ConvTranspose2d(in_channels=hidden_layer_sizes[0], out_channels=last_channel, kernel_size=5, stride=2,
padding=2, output_padding=1))
layers.append(self.activation)
if bn:
layers.append(nn.BatchNorm2d(num_features=last_channel))
layers.append(nn.Conv2d(in_channels=last_channel, out_channels=out_channels*group, kernel_size=1,groups=group, bias=False))
layers.append(self.activation)
else:
layers.append(nn.ConvTranspose2d(in_channels=hidden_layer_sizes[0], out_channels=out_channels * group, kernel_size=5,
stride=2,
padding=2, output_padding=1))
layers.append(nn.Tanh()) #TODO
self.layers = nn.Sequential(*layers)
print(self.layers)
def forward(self, x):
h = self.fc(x)
h = self.activation(h)
h = h.view(-1, *self.h_shape)
if self.bnlayer is not None:
h = self.bn(h)
return self.layers(h)
class _Decoder_Linear(nn.Module):
def __init__(self, in_channels,out_channels, hidden_layer_sizes, activation, bn):
super(_Decoder_Linear, self).__init__()
self.activation = activation
self.hidden_layer_sizes = hidden_layer_sizes
hidden_layer_sizes = hidden_layer_sizes[::-1]
layers = []
for ic, oc in zip([in_channels] + hidden_layer_sizes[:-1], hidden_layer_sizes):
layers.append(nn.Linear(in_features=ic, out_features=oc))
layers.append(self.activation)
if bn:
layers.append(nn.BatchNorm1d(num_features=oc))
layers.append(nn.Linear(in_features=hidden_layer_sizes[-1], out_features=out_channels))
layers.append(self.activation)
self.deconv = nn.Sequential(*layers)
print(self.deconv)
def forward(self, x):
h = self.deconv(x)
return h
class SN_MNIST(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, add_conv):
super(SN_MNIST, self).__init__()
c, h, w = input_shape
pad_mode = 1 if h % 8 == 0 else 0
self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(), pad_mode=pad_mode)
h_shape = (hidden_layer_sizes[2], h//8, w//8)
h_channels = h_shape[0]*h_shape[1]*h_shape[2]
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
#self.N = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.decoder = _Decoder(in_channels=z_channels, out_channels=c, h_shape=h_shape,
hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh(),
pad_mode=pad_mode, add_conv=add_conv)
def forward(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
y_rsr = torch.matmul(y, self.A)
#y_rsr = torch.matmul(y_rsr, self.A.t())
#n_rsr = torch.matmul(y, self.N)
#z = torch.cat((y_rsr, n_rsr), dim=1)
z = y_rsr
x_r = self.decoder(z)
#print(y.shape, y_rsr.shape, z.shape, x_r.shape)
return y, y_rsr, z, x_r
class RSRBoneV2Linear(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, group, bn):
super(RSRBoneV2Linear, self).__init__()
c= input_shape
self.input_shape = input_shape
self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.ReLU(), bn=bn)
self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels))
self.group = group
self.input_c = c
self.decoder = _Decoder_Linear(in_channels=z_channels, out_channels=c,
hidden_layer_sizes=hidden_layer_sizes,activation=nn.ReLU(),
bn=bn)
def forward(self, x):
y = self.encoder(x)
y_rsr = torch.matmul(y, self.A)
x_r1 = self.decoder(y_rsr)
x_r = (x_r1,)
return y_rsr, x_r, x_r1
class RSRBoneV3Linear(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, bn):
super(RSRBoneV3Linear, self).__init__()
c= input_shape
self.input_shape = input_shape
self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.ReLU(), bn=bn)
self.A = nn.Linear(in_features=hidden_layer_sizes[2], out_features=z_channels, bias=False)
#self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels))
self.input_c = c
self.decoder = _Decoder_Linear(in_channels=z_channels, out_channels=c,
hidden_layer_sizes=hidden_layer_sizes,activation=nn.ReLU(),
bn=bn)
self.estimator = Estimator1D(
code_length=z_channels,
fm_list=[32, 32, 32, 32],
cpd_channels=100
)
self.sigmoid = nn.Sigmoid()
def forward(self, x):
y = self.encoder(x)
y_rsr = self.A(y)
#y_rsr = torch.matmul(y, self.A)
y_rsr = self.sigmoid(y_rsr)
x_r = self.decoder(y_rsr)
z_dist = self.estimator(y_rsr)
return y_rsr, x_r, z_dist
class RSRBoneV2(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, group, add_conv):
super(RSRBoneV2, self).__init__()
c, h, w = input_shape
self.input_shape = input_shape
pad_mode = 1 if h % 8 == 0 else 0
self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(),
pad_mode=pad_mode)
h_shape = (hidden_layer_sizes[2], h//8, w//8)
h_channels = h_shape[0]*h_shape[1]*h_shape[2]
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.group = group
self.input_c = c
last_channel = 16 if add_conv else 1
self.decoder = _Decoder(in_channels=z_channels, out_channels=c, h_shape=h_shape,
hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh(),
group=group, last_channel=last_channel,pad_mode=pad_mode, add_conv=add_conv)
def forward(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
#print(y.shape)
y_rsr = torch.matmul(y, self.A)
x_r1 = self.decoder(y_rsr)
#print(x_r1.shape)
#x_r1 = x_r1.view(-1, self.group*self.input_shape[0], *self.input_shape[1:])
#print(x_r1.shape)
if self.group == 1:
x_r = (x_r1,)
return y_rsr, x_r, x_r1
elif self.input_c == 1:
x_r = torch.chunk(x_r1, self.group, dim=1)
return y_rsr, x_r, x_r1.mean(dim=1, keepdim=True)
else:
raise NotImplementedError
class RSRBoneType(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode):
super(RSRBoneType, self).__init__()
c, h, w = input_shape
self.mode = mode
self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh())
h_shape = (hidden_layer_sizes[2], h//8, w//8)
h_channels = h_shape[0]*h_shape[1]*h_shape[2]
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.decoder = _Decoder(in_channels=h_channels, out_channels=c, h_shape=h_shape,
hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh())
def forward(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
y_rsr = torch.matmul(y, self.A)
y_rsr = torch.matmul(y_rsr, self.A.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
else:
x_r = self.decoder(y)
return y, y_rsr, x_r
def predict(self, x, mod=None):
if mod is None:
mod = self.mode
y = self.encoder(x)
y = y.view(y.shape[0], -1)
y_rsr = torch.matmul(y, self.A)
y_rsr = torch.matmul(y_rsr, self.A.t())
if mod == 'A':
x_r = self.decoder(y)
else:
x_r = self.decoder(y_rsr)
return y, y_rsr, x_r
class RSRBoneTypeV2(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode):
super(RSRBoneTypeV2, self).__init__()
c, h, w = input_shape
self.mode = mode
pad_mode = 1 if h % 8 == 0 else 0
self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(),
pad_mode=pad_mode)
h_shape = (hidden_layer_sizes[2], h//8, w//8)
h_channels = h_shape[0]*h_shape[1]*h_shape[2]
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.decoder = _Decoder(in_channels=h_channels, out_channels=c, h_shape=h_shape,
hidden_layer_sizes=hidden_layer_sizes,activation=nn.Tanh(), pad_mode=pad_mode)
def forward(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
else:
x_r = self.decoder(y)
return y, y_rsr, x_r
def predict(self, x, mod=None):
if mod is None:
mod = self.mode
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if mod == 'A':
x_r = self.decoder(y)
else:
x_r = self.decoder(y_rsr)
return y, y_rsr, x_r
class RSRBoneTypeV3Linear(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB):
super(RSRBoneTypeV3Linear, self).__init__()
c = input_shape
self.mode = mode # A or B or AB
self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.ReLU(), bn=bn)
self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels))
if shareAB:
self.B = self.A
print('shareAB')
else:
self.B = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels))
self.decoder = _Decoder_Linear(in_channels=hidden_layer_sizes[2], out_channels=c,
hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(),
bn=bn)
def forward(self, x):
y = self.encoder(x)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
elif self.mode == 'B':
x_r = self.decoder(y)
else:
x_r = self.decoder((y_rsr + y)/2.)
return y, y_rsr, x_r
def predict(self, x):
y = self.encoder(x)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
x_rA = self.decoder(y_rsr)
x_rB = self.decoder(y)
x_rAB = self.decoder((y_rsr + y) / 2.)
return y, y_rsr, (x_rA, x_rB, x_rAB)
class RSRBoneTypeV3(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB):
super(RSRBoneTypeV3, self).__init__()
c, h, w = input_shape
pad_mode = 1 if h % 8 == 0 else 0
self.mode = mode # A or B or AB
self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.Tanh(), pad_mode=pad_mode, bn=bn)
h_shape = (hidden_layer_sizes[2], h // 8, w // 8)
h_channels = h_shape[0] * h_shape[1] * h_shape[2]
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
if shareAB:
self.B = self.A
print('shareAB')
else:
self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.decoder = _Decoder(in_channels=h_channels, out_channels=c,h_shape=h_shape,
hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(),
pad_mode=pad_mode, add_conv=False, bn=bn)
def forward(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
elif self.mode == 'B':
x_r = self.decoder(y)
else:
x_r = self.decoder((y_rsr + y)/2.)
return y, y_rsr, x_r
def predict(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
x_rA = self.decoder(y_rsr)
x_rB = self.decoder(y)
x_rAB = self.decoder((y_rsr + y) / 2.)
return y, y_rsr, (x_rA, x_rB, x_rAB)
class RSRBoneTypeV4Linear(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn):
super(RSRBoneTypeV4Linear, self).__init__()
c = input_shape
self.mode = mode # A or B or AB
self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.ReLU(), bn=bn)
#self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels))
self.inner_net = RSRBoneTypeV3Linear(hidden_layer_sizes[2], hidden_layer_sizes, z_channels, mode='A'
, bn=bn, shareAB=True)
self.decoder = _Decoder_Linear(in_channels=hidden_layer_sizes[2], out_channels=c,
hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(),
bn=bn)
def forward(self, x):
y = self.encoder(x)
#z = torch.matmul(y, self.A)
#y_rsr = torch.matmul(z, self.B.t())
_, _, y_rsr = self.inner_net(y)
if self.mode == 'A':
x_r = self.decoder(y_rsr)
elif self.mode == 'B':
x_r = self.decoder(y)
else:
x_r = self.decoder((y_rsr + y)/2.)
return y, y_rsr, x_r
def predict(self, x):
y = self.encoder(x)
#z = torch.matmul(y, self.A)
#y_rsr = torch.matmul(z, self.B.t())
_, _, y_rsr = self.inner_net(y)
#print(y.shape, y_rsr.shape)
x_rA = self.decoder(y_rsr)
x_rB = self.decoder(y)
x_rAB = self.decoder((y_rsr + y) / 2.)
return y, y_rsr, (x_rA, x_rB, x_rAB)
class RSRBoneTypeV5Linear(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB):
super(RSRBoneTypeV5Linear, self).__init__()
c = input_shape
self.mode = mode # A or B or AB
self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.ReLU(), bn=bn)
self.A = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels))
if shareAB:
self.B = self.A
print('shareAB')
else:
self.B = torch.nn.Parameter(torch.randn(hidden_layer_sizes[2], z_channels))
self.decoder = _Decoder_Linear(in_channels=hidden_layer_sizes[2], out_channels=c,
hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(),
bn=bn)
def forward(self, x):
y = self.encoder(x)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
elif self.mode == 'B':
x_r = self.decoder(y)
else:
x_r = self.decoder((y_rsr + y)/2.)
return y, y_rsr, x_r
def predict(self, x):
y = self.encoder(x)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
x_rA = self.decoder(y_rsr)
x_rB = self.decoder(y)
x_rAB = self.decoder((y_rsr + y) / 2.)
return y, y_rsr, (x_rA, x_rB, x_rAB)
class RSRBoneTypeV6(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB, flatten_size=128):
super(RSRBoneTypeV6, self).__init__()
c, h, w = input_shape
pad_mode = 1 if h % 8 == 0 else 0
self.mode = mode # A or B or AB
# flatten_size = 128
self.encoder = _Encoder(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.Tanh(), pad_mode=pad_mode, bn=bn, is_flatten=True, #nn.Tanh()
flatten_size=flatten_size)
h_shape = (hidden_layer_sizes[2], h // 8, w // 8)
h_channels = flatten_size
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
if shareAB:
self.B = self.A
print('shareAB')
else:
self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.decoder = _Decoder(in_channels=h_channels, out_channels=c,h_shape=h_shape,
hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(),
pad_mode=pad_mode, add_conv=False, bn=bn)
def forward(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
elif self.mode == 'B':
x_r = self.decoder(y)
else:
x_r = self.decoder((y_rsr + y)/2.)
return y, y_rsr, x_r
def predict(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
x_rA = self.decoder(y_rsr)
x_rB = self.decoder(y)
x_rAB = self.decoder((y_rsr + y) / 2.)
return y, y_rsr, (x_rA, x_rB, x_rAB)
class RSRBoneTypeV6Linear(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB, flatten_size=128):
super(RSRBoneTypeV6Linear, self).__init__()
c = input_shape
self.mode = mode # A or B or AB
self.encoder = _Encoder_Linear(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.ReLU(), bn=bn, is_flatten=True, flatten_size=flatten_size)
h_channels = flatten_size
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
if shareAB:
self.B = self.A
print('shareAB')
else:
self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.decoder = _Decoder_Linear(in_channels=h_channels, out_channels=c,
hidden_layer_sizes=hidden_layer_sizes, activation=nn.ReLU(),
bn=bn)
def forward(self, x):
y = self.encoder(x)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
elif self.mode == 'B':
x_r = self.decoder(y)
else:
x_r = self.decoder((y_rsr + y)/2.)
return y, y_rsr, x_r
def predict(self, x):
y = self.encoder(x)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
x_rA = self.decoder(y_rsr)
x_rB = self.decoder(y)
x_rAB = self.decoder((y_rsr + y) / 2.)
return y, y_rsr, (x_rA, x_rB, x_rAB)
class RSRBoneTypeV7(nn.Module):
def __init__(self, input_shape, hidden_layer_sizes, z_channels, mode, bn, shareAB, flatten_size=128):
super(RSRBoneTypeV7, self).__init__()
c, h, w = input_shape
pad_mode = 1 if h % 8 == 0 else 0
self.mode = mode # A or B or AB
# flatten_size = 128
self.encoder = _Encoder_LSA(in_channels=c, hidden_layer_sizes=hidden_layer_sizes,
activation=nn.Tanh(), pad_mode=pad_mode, bn=bn, is_flatten=True,
flatten_size=flatten_size)
h_shape = (hidden_layer_sizes[2], h // 8, w // 8)
h_channels = flatten_size
self.A = torch.nn.Parameter(torch.randn(h_channels, z_channels))
if shareAB:
self.B = self.A
print('shareAB')
else:
self.B = torch.nn.Parameter(torch.randn(h_channels, z_channels))
self.decoder = _Decoder_LSA(in_channels=h_channels, out_channels=c,h_shape=h_shape,
hidden_layer_sizes=hidden_layer_sizes, activation=nn.Tanh(),
pad_mode=pad_mode, add_conv=False, bn=bn)
def forward(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
if self.mode == 'A':
x_r = self.decoder(y_rsr)
elif self.mode == 'B':
x_r = self.decoder(y)
else:
x_r = self.decoder((y_rsr + y)/2.)
return y, y_rsr, x_r
def predict(self, x):
y = self.encoder(x)
y = y.view(y.shape[0], -1)
z = torch.matmul(y, self.A)
y_rsr = torch.matmul(z, self.B.t())
x_rA = self.decoder(y_rsr)
x_rB = self.decoder(y)
x_rAB = self.decoder((y_rsr + y) / 2.)
return y, y_rsr, (x_rA, x_rB, x_rAB)
| 39.829932 | 135 | 0.587498 | 4,071 | 29,275 | 3.95603 | 0.043724 | 0.08606 | 0.125179 | 0.032599 | 0.860354 | 0.847439 | 0.825147 | 0.814095 | 0.800807 | 0.77715 | 0 | 0.016533 | 0.295474 | 29,275 | 734 | 136 | 39.884196 | 0.764315 | 0.055337 | 0 | 0.756803 | 0 | 0 | 0.002213 | 0 | 0 | 0 | 0 | 0.002725 | 0 | 1 | 0.079932 | false | 0 | 0.010204 | 0.003401 | 0.171769 | 0.017007 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
9cc695804dab1321f666ad65a97e0c9fd628163d | 2,601 | py | Python | tests/testapp/test_middleware.py | matthiask/django-canonical-domain | 31f9d0ba181d69694ad9114347240037a58d4251 | [
"BSD-3-Clause"
] | 2 | 2021-07-14T18:04:27.000Z | 2021-10-03T12:06:37.000Z | tests/testapp/test_middleware.py | matthiask/django-canonical-domain | 31f9d0ba181d69694ad9114347240037a58d4251 | [
"BSD-3-Clause"
] | 2 | 2018-12-23T19:42:39.000Z | 2019-12-07T11:58:47.000Z | tests/testapp/test_middleware.py | matthiask/django-canonical-domain | 31f9d0ba181d69694ad9114347240037a58d4251 | [
"BSD-3-Clause"
] | 2 | 2018-12-24T15:15:15.000Z | 2019-10-23T18:31:12.000Z | from django.test import TestCase
from django.test.utils import override_settings
@override_settings(MIDDLEWARE=["canonical_domain.middleware.canonical_domain"])
class MiddlewareNotUsedTestCase(TestCase):
def test_request(self):
response = self.client.get("/")
self.assertEqual(response.status_code, 200)
self.assertEqual(response.content, b"Hello world")
@override_settings(
MIDDLEWARE=["canonical_domain.middleware.canonical_domain"],
CANONICAL_DOMAIN="example.com",
)
class CanonicalDomainTestCase(TestCase):
def test_http_requests(self):
response = self.client.get("/", HTTP_HOST="example.org")
self.assertEqual(response.status_code, 301)
self.assertEqual(response["Location"], "http://example.com/")
response = self.client.get("/", HTTP_HOST="example.com")
self.assertEqual(response.status_code, 200)
self.assertEqual(response.content, b"Hello world")
response = self.client.post("/", HTTP_HOST="example.org")
self.assertEqual(response.status_code, 200)
self.assertEqual(response.content, b"Hello world")
def test_https_requests(self):
response = self.client.get("/", HTTP_HOST="example.org", secure=True)
self.assertEqual(response.status_code, 301)
self.assertEqual(response["Location"], "https://example.com/")
response = self.client.get("/", HTTP_HOST="example.com", secure=True)
self.assertEqual(response.status_code, 200)
self.assertEqual(response.content, b"Hello world")
@override_settings(
MIDDLEWARE=["canonical_domain.middleware.canonical_domain"],
CANONICAL_DOMAIN="example.com",
CANONICAL_DOMAIN_SECURE=True,
)
class CanonicalDomainSecureTestCase(TestCase):
def test_http_redirects(self):
response = self.client.get("/")
self.assertEqual(response.status_code, 301)
self.assertEqual(response["Location"], "https://example.com/")
response = self.client.get("/", HTTP_HOST="example.org")
self.assertEqual(response.status_code, 301)
self.assertEqual(response["Location"], "https://example.com/")
def test_https_redirects(self):
response = self.client.get("/", HTTP_HOST="example.org", secure=True)
self.assertEqual(response.status_code, 301)
self.assertEqual(response["Location"], "https://example.com/")
def test_match(self):
response = self.client.get("/", HTTP_HOST="example.com", secure=True)
self.assertEqual(response.status_code, 200)
self.assertEqual(response.content, b"Hello world")
| 40.015385 | 79 | 0.699346 | 295 | 2,601 | 6.023729 | 0.145763 | 0.168824 | 0.258863 | 0.163196 | 0.834553 | 0.834553 | 0.824423 | 0.824423 | 0.785031 | 0.774902 | 0 | 0.013755 | 0.161476 | 2,601 | 64 | 80 | 40.640625 | 0.801009 | 0 | 0 | 0.647059 | 0 | 0 | 0.171473 | 0.05075 | 0 | 0 | 0 | 0 | 0.392157 | 1 | 0.117647 | false | 0 | 0.039216 | 0 | 0.215686 | 0 | 0 | 0 | 0 | null | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
9ccf8ace214259406b26caa3f82623121c2c65d4 | 390 | py | Python | algorithm/__init__.py | lll6924/VMPF | 7c5970d11ffb63c5231965d9ceb8f0df70292003 | [
"MIT"
] | null | null | null | algorithm/__init__.py | lll6924/VMPF | 7c5970d11ffb63c5231965d9ceb8f0df70292003 | [
"MIT"
] | null | null | null | algorithm/__init__.py | lll6924/VMPF | 7c5970d11ffb63c5231965d9ceb8f0df70292003 | [
"MIT"
] | null | null | null | from .algorithm import *
from .variational_marginal_particle_filter import *
from .variational_sequential_monte_carlo import *
from .vsmc_multiple_data import *
from .vmpfbg_multiple_data import *
from .variational_marginal_particle_filter_biased_gradients import *
from .importance_weighted_variational_inference import *
from .iwvi_multiple_data import *
from .vmpf_multiple_data import * | 43.333333 | 68 | 0.864103 | 49 | 390 | 6.428571 | 0.428571 | 0.253968 | 0.228571 | 0.209524 | 0.273016 | 0.273016 | 0 | 0 | 0 | 0 | 0 | 0 | 0.089744 | 390 | 9 | 69 | 43.333333 | 0.887324 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
9ce5300b1f5e3510bf4b01a696fbe1df944b3e92 | 10,727 | py | Python | app/swagger_client/api/tournaments_api_api.py | defrecord/icfp-2020 | 68b7847e2c840028c81396b040c4ac1ab92e5e40 | [
"MIT"
] | null | null | null | app/swagger_client/api/tournaments_api_api.py | defrecord/icfp-2020 | 68b7847e2c840028c81396b040c4ac1ab92e5e40 | [
"MIT"
] | null | null | null | app/swagger_client/api/tournaments_api_api.py | defrecord/icfp-2020 | 68b7847e2c840028c81396b040c4ac1ab92e5e40 | [
"MIT"
] | null | null | null | # coding: utf-8
"""
ICFP Contest 2020 API
See <a href='https://github.com/icfpcontest2020/aliens-proxy-protocol' target='_blank'>https://github.com/icfpcontest2020/aliens-proxy-protocol<a/> # noqa: E501
OpenAPI spec version: v1
Generated by: https://github.com/swagger-api/swagger-codegen.git
"""
from __future__ import absolute_import
import re # noqa: F401
# python 2 and python 3 compatibility library
import six
from swagger_client.api_client import ApiClient
class TournamentsApiApi(object):
"""NOTE: This class is auto generated by the swagger code generator program.
Do not edit the class manually.
Ref: https://github.com/swagger-api/swagger-codegen
"""
def __init__(self, api_client=None):
if api_client is None:
api_client = ApiClient()
self.api_client = api_client
def tournaments_current_get(self, **kwargs): # noqa: E501
"""tournaments_current_get # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.tournaments_current_get(async_req=True)
>>> result = thread.get()
:param async_req bool
:return: TournamentDto
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.tournaments_current_get_with_http_info(**kwargs) # noqa: E501
else:
(data) = self.tournaments_current_get_with_http_info(**kwargs) # noqa: E501
return data
def tournaments_current_get_with_http_info(self, **kwargs): # noqa: E501
"""tournaments_current_get # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.tournaments_current_get_with_http_info(async_req=True)
>>> result = thread.get()
:param async_req bool
:return: TournamentDto
If the method is called asynchronously,
returns the request thread.
"""
all_params = [] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method tournaments_current_get" % key
)
params[key] = val
del params['kwargs']
collection_formats = {}
path_params = {}
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['text/plain', 'application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['ICFPC-ApiKey'] # noqa: E501
return self.api_client.call_api(
'/tournaments/current', 'GET',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='TournamentDto', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
def tournaments_get(self, **kwargs): # noqa: E501
"""tournaments_get # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.tournaments_get(async_req=True)
>>> result = thread.get()
:param async_req bool
:return: list[TournamentDto]
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.tournaments_get_with_http_info(**kwargs) # noqa: E501
else:
(data) = self.tournaments_get_with_http_info(**kwargs) # noqa: E501
return data
def tournaments_get_with_http_info(self, **kwargs): # noqa: E501
"""tournaments_get # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.tournaments_get_with_http_info(async_req=True)
>>> result = thread.get()
:param async_req bool
:return: list[TournamentDto]
If the method is called asynchronously,
returns the request thread.
"""
all_params = [] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method tournaments_get" % key
)
params[key] = val
del params['kwargs']
collection_formats = {}
path_params = {}
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['text/plain', 'application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['ICFPC-ApiKey'] # noqa: E501
return self.api_client.call_api(
'/tournaments', 'GET',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='list[TournamentDto]', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
def tournaments_tournament_id_get(self, tournament_id, **kwargs): # noqa: E501
"""tournaments_tournament_id_get # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.tournaments_tournament_id_get(tournament_id, async_req=True)
>>> result = thread.get()
:param async_req bool
:param int tournament_id: (required)
:return: TournamentDto
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.tournaments_tournament_id_get_with_http_info(tournament_id, **kwargs) # noqa: E501
else:
(data) = self.tournaments_tournament_id_get_with_http_info(tournament_id, **kwargs) # noqa: E501
return data
def tournaments_tournament_id_get_with_http_info(self, tournament_id, **kwargs): # noqa: E501
"""tournaments_tournament_id_get # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.tournaments_tournament_id_get_with_http_info(tournament_id, async_req=True)
>>> result = thread.get()
:param async_req bool
:param int tournament_id: (required)
:return: TournamentDto
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['tournament_id'] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method tournaments_tournament_id_get" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'tournament_id' is set
if ('tournament_id' not in params or
params['tournament_id'] is None):
raise ValueError("Missing the required parameter `tournament_id` when calling `tournaments_tournament_id_get`") # noqa: E501
collection_formats = {}
path_params = {}
if 'tournament_id' in params:
path_params['tournamentId'] = params['tournament_id'] # noqa: E501
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['text/plain', 'application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['ICFPC-ApiKey'] # noqa: E501
return self.api_client.call_api(
'/tournaments/{tournamentId}', 'GET',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='TournamentDto', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
| 36.117845 | 165 | 0.614151 | 1,199 | 10,727 | 5.209341 | 0.132611 | 0.042267 | 0.026897 | 0.034582 | 0.896094 | 0.877362 | 0.869837 | 0.832853 | 0.82757 | 0.820845 | 0 | 0.015608 | 0.295236 | 10,727 | 296 | 166 | 36.239865 | 0.810582 | 0.315559 | 0 | 0.76129 | 0 | 0 | 0.171757 | 0.045448 | 0 | 0 | 0 | 0 | 0 | 1 | 0.045161 | false | 0 | 0.025806 | 0 | 0.135484 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
143f7d84d91af973bef03d251020eafc8426aacc | 37,144 | py | Python | blotter/tests/test_holdings.py | matthewgilbert/blotter | 067cc55bd4b55252f4d8de160703884ff01b9391 | [
"MIT"
] | 16 | 2017-06-06T10:11:02.000Z | 2022-03-28T02:24:29.000Z | blotter/tests/test_holdings.py | altfund/blotter | 067cc55bd4b55252f4d8de160703884ff01b9391 | [
"MIT"
] | null | null | null | blotter/tests/test_holdings.py | altfund/blotter | 067cc55bd4b55252f4d8de160703884ff01b9391 | [
"MIT"
] | 7 | 2017-06-23T15:51:35.000Z | 2020-10-18T10:00:46.000Z | import unittest
import array
from blotter import blotter
from pandas.util.testing import assert_series_equal, assert_frame_equal
import pandas as pd
import numpy as np
PNL_COLS = ['pnl', 'closed pnl', 'open pnl']
class TestHoldings(unittest.TestCase):
def setUp(self):
pass
def tearDown(self):
pass
def assertDictSeriesEqual(self, dict1, dict2):
self.assertEqual(dict1.keys(), dict2.keys())
for key in dict1:
try:
assert_series_equal(dict1[key], dict2[key])
except AssertionError as e:
e.args = (("\nfor key %s\n" % key) + e.args[0],)
raise e
def assertDictFrameEqual(self, dict1, dict2):
self.assertEqual(dict1.keys(), dict2.keys())
for key in dict1:
try:
assert_frame_equal(dict1[key], dict2[key])
except AssertionError as e:
e.args = (("\nfor key %s\n" % key) + e.args[0],)
raise e
def assertNestedDictSeriesEqual(self, dict1, dict2):
self.assertEqual(dict1.keys(), dict2.keys())
for key in dict1:
try:
self.assertDictSeriesEqual(dict1[key], dict2[key])
except AssertionError as e:
e.args = (("\nfor key %s\n" % key) + e.args[0],)
raise e
def assertNestedDictFrameEqual(self, dict1, dict2):
self.assertEqual(dict1.keys(), dict2.keys())
for key in dict1:
try:
self.assertDictFrameEqual(dict1[key], dict2[key])
except AssertionError as e:
e.args = (("\nfor key %s\n" % key) + e.args[0],)
raise e
def test_empty_asts(self):
holder = blotter.Holdings()
asts = holder.get_assets()
self.assertEqual(asts, [])
def test_empty_holdings(self):
holder = blotter.Holdings()
holdings = holder.get_holdings()
holdings_hst = holder.get_holdings_history()
self.assertEqual(holdings, {})
self.assertEqual(holdings_hst, {})
def test_timestamp_conversion(self):
ts = pd.Timestamp('2016-12-01T10:00:00')
ts2 = pd.Timestamp('2016-12-01T11:00:00')
timestamps = array.array('d', [ts.timestamp(), ts2.timestamp()])
expected_ts = [ts, ts2]
ret_ts = blotter.Holdings._to_timestamp(timestamps)
self.assertEqual(expected_ts, ret_ts)
def test_one_trade(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
asts = holder.get_assets()
pos = holder.get_holdings()
pos_hist = holder.get_holdings_history()
self.assertEqual(asts, ['CLZ6'])
self.assertDictSeriesEqual(pos,
{"USD": pd.Series(1.0, index=['CLZ6'])})
exp_pos_hst = {"USD": {"CLZ6": pd.Series(1.0, index=[ts])}}
self.assertNestedDictSeriesEqual(pos_hist, exp_pos_hst)
def test_one_trade_with_mult(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = 1
mult = 2
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
asts = holder.get_assets()
pos = holder.get_holdings()
pos_hist = holder.get_holdings_history()
self.assertEqual(asts, ['CLZ6'])
self.assertDictSeriesEqual(pos,
{"USD": pd.Series(2.0, index=['CLZ6'])})
exp_pos_hst = {"USD": {"CLZ6": pd.Series(2.0, index=[ts])}}
self.assertNestedDictSeriesEqual(pos_hist, exp_pos_hst)
def test_trade_out_of_order(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T09:00:00')
def book_out_of_order():
holder.record_trade(ts, instr, price, quantity, mult, cmsion,
ccy)
self.assertRaises(ValueError, book_out_of_order)
def test_trade_0_quantity(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = 0
mult = 1
cmsion = 2.50
ccy = 'USD'
def trade_0():
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
self.assertRaises(ValueError, trade_0)
def test_trade_mult_neg(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = 1
mult = -1
cmsion = 2.50
ccy = 'USD'
def trade_bad():
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
self.assertRaises(ValueError, trade_bad)
def test_trade_mult_float(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = 1
mult = 1.5
cmsion = 2.50
ccy = 'USD'
def trade_bad():
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
self.assertRaises(ValueError, trade_bad)
def test_trade_nan_quantity(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = np.NaN
mult = 1
cmsion = 2.50
ccy = 'USD'
def trade_nan():
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
self.assertRaises(ValueError, trade_nan)
def test_two_trades_same_ast(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
ts2 = pd.Timestamp('2016-12-01T11:00:00')
instr = 'CLZ6'
price = 53.36
price2 = 53.84
quantity = 1
quantity2 = 7
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts2, instr, price2, quantity2, mult, cmsion, ccy)
asts = holder.get_assets()
pos = holder.get_holdings()
pos_hst = holder.get_holdings_history()
self.assertEqual(asts, ['CLZ6'])
self.assertDictSeriesEqual(pos,
{"USD": pd.Series(8.0, index=['CLZ6'])})
exp_pos_hst = {"USD": {"CLZ6": pd.Series([1.0, 8.0], index=[ts, ts2])}}
self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst)
def test_closed_trade(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
ts2 = pd.Timestamp('2016-12-01T11:00:00')
instr = 'CLZ6'
price = 53.36
price2 = 53.84
quantity = 1
quantity2 = -1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts2, instr, price2, quantity2, mult, cmsion, ccy)
asts = holder.get_assets()
pos = holder.get_holdings()
pos_hst = holder.get_holdings_history()
self.assertEqual(asts, [])
self.assertDictSeriesEqual(pos, {})
exp_pos_hst = {"USD": {"CLZ6": pd.Series([1.0, 0.0], index=[ts, ts2])}}
self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst)
def test_two_trades_two_asts_one_ccy(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
ts2 = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
instr2 = 'COZ6'
price2 = 53.84
quantity = 1
quantity2 = 7
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts2, instr2, price2, quantity2, mult, cmsion, ccy)
asts = holder.get_assets()
pos = holder.get_holdings()
pos_hst = holder.get_holdings_history()
self.assertEqual(asts, ['CLZ6', 'COZ6'])
s = pd.Series([1.0, 7.0], index=['CLZ6', 'COZ6'])
self.assertDictSeriesEqual(pos, {"USD": s})
exp_pos_hst = {'USD': {'CLZ6': pd.Series([1.0], index=[ts]),
'COZ6': pd.Series([7.0], index=[ts2])}}
self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst)
def test_two_trades_two_asts_two_ccy(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
ts2 = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
instr2 = 'COZ6'
price2 = 53.84
quantity = 1
quantity2 = 7
mult = 1
cmsion = 2.50
ccy = 'USD'
ccy2 = 'CAD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts2, instr2, price2, quantity2, mult, cmsion, ccy2)
asts = holder.get_assets()
pos = holder.get_holdings()
pos_hst = holder.get_holdings_history()
self.assertEqual(asts, ['CLZ6', 'COZ6'])
s1 = pd.Series([1.0], index=['CLZ6'])
s2 = pd.Series([7.0], index=['COZ6'])
self.assertDictSeriesEqual(pos, {"USD": s1, "CAD": s2})
exp_pos_hst = {'USD': {'CLZ6': pd.Series([1.0], index=[ts])},
'CAD': {'COZ6': pd.Series([7.0], index=[ts2])}}
self.assertNestedDictSeriesEqual(pos_hst, exp_pos_hst)
def test_get_holdings_make_trade(self):
# this test is necessary to test for a BufferError which arises when
# assigning the output to get_holdings() and then making a trade.
# Copying the data when creating a the pd.Series resolves
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 53.36
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
asts = holder.get_assets() # NOQA
pos = holder.get_holdings() # NOQA
pos_hst = holder.get_holdings_history() # NOQA
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
def test_get_no_cash(self):
holder = blotter.Holdings()
cashs = holder.get_cash_balances()
assert_series_equal(cashs, pd.Series())
def test_get_USD_cash(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
holder.update_cash(ts, 'USD', 1000)
cashs = holder.get_cash_balances()
assert_series_equal(cashs, pd.Series(1000.0, index=['USD']))
def test_get_USD_and_CAD_cash(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
holder.update_cash(ts, 'USD', 1000)
holder.update_cash(ts, 'CAD', 1000)
cashs = holder.get_cash_balances()
s = pd.Series([1000.0, 1000.0], index=['CAD', 'USD'])
assert_series_equal(cashs, s)
def test_get_USD_closed_cash(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
holder.update_cash(ts, 'USD', 1000)
ts = pd.Timestamp('2016-12-02T10:00:00')
holder.update_cash(ts, 'USD', -1000)
cashs = holder.get_cash_balances()
s = pd.Series()
assert_series_equal(cashs, s)
def test_get_USD_interest(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
holder.charge_interest(ts, 'USD', 1000)
interest = holder._interest['USD'].amount[-1]
self.assertEqual(interest, 1000)
# instrument level PnL tests
def test_instrument_pnl_no_trades(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr_pnls = holder.get_instrument_pnl(ts)
self.assertDictEqual(instr_pnls, {})
def test_instrument_pnl_one_instrument_one_trade(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
pnls = holder.get_instrument_pnl(ts, pd.Series([56], index=[instr]))
df_pnl = pd.concat([pd.Series([-1.5], index=[instr]),
pd.Series([-2.5], index=[instr]),
pd.Series([1.0], index=[instr])], axis=1)
df_pnl.columns = PNL_COLS
pnls_expected = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_expected)
def test_instrument_pnl_one_instrument_one_trade_extra_prices(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
# add prices for irrelevant instruments, these should be ignored
prices = pd.Series([56, 80, 0.80], index=[instr, 'COZ6', 'AUDUSD'])
pnls = holder.get_instrument_pnl(ts, prices)
df_pnl = pd.concat([pd.Series([-1.5], index=[instr]),
pd.Series([-2.5], index=[instr]),
pd.Series([1.0], index=[instr])], axis=1)
df_pnl.columns = PNL_COLS
pnls_expected = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_expected)
def test_instrument_pnl_two_instrument_one_ccy(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
instr2 = 'COZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts, instr2, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([57, 56], index=[instr, instr2])
pnls = holder.get_instrument_pnl(ts, prices)
df_pnl = pd.concat([pd.Series([-0.5, -1.5], index=[instr, instr2]),
pd.Series([-2.5, -2.5], index=[instr, instr2]),
pd.Series([2.0, 1.0], index=[instr, instr2])],
axis=1)
df_pnl.columns = PNL_COLS
pnls_exp = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_exp)
def test_instrument_pnl_two_instrument_two_ccy(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
instr2 = 'COZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
ccy2 = 'CAD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts, instr2, price, quantity, mult, cmsion, ccy2)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([57, 56], index=[instr, instr2])
pnls = holder.get_instrument_pnl(ts, prices)
df_pnl1 = pd.concat([pd.Series([-1.5], index=[instr2]),
pd.Series([-2.5], index=[instr2]),
pd.Series([1.0], index=[instr2])], axis=1)
df_pnl2 = pd.concat([pd.Series([-0.5], index=[instr]),
pd.Series([-2.5], index=[instr]),
pd.Series([2.0], index=[instr])], axis=1)
df_pnl1.columns = PNL_COLS
df_pnl2.columns = PNL_COLS
pnls_exp = {'CAD': df_pnl1,
'USD': df_pnl2}
self.assertDictFrameEqual(pnls, pnls_exp)
def test_instrument_pnl_one_instrument_closed_no_price_needed(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
price = 65
quantity = -1
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T12:00:00')
# when there is no position in an instrument the price for that is
# ignored so doesn't need to be passed
pnls = holder.get_instrument_pnl(ts, pd.Series([]))
df_pnl = pd.concat([pd.Series([5.0], index=[instr]),
pd.Series([5.0], index=[instr]),
pd.Series([0.0], index=[instr])], axis=1)
df_pnl.columns = PNL_COLS
pnls_exp = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_exp)
def test_instrument_pnl_missing_price(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series()
def no_price():
holder.get_instrument_pnl(ts, prices)
self.assertRaises(KeyError, no_price)
def test_one_instrument_pnl_one_nan_price(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([pd.np.NaN], index=[instr])
pnls = holder.get_instrument_pnl(ts, prices)
df_pnl = pd.concat([pd.Series([pd.np.NaN], index=[instr]),
pd.Series([pd.np.NaN], index=[instr]),
pd.Series([pd.np.NaN], index=[instr])], axis=1)
df_pnl.columns = PNL_COLS
pnls_exp = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_exp)
def test_two_instrument_pnl_one_nan_price(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr1 = 'CLZ6'
instr2 = 'COZ6'
price = 55
quantity = 1
mult = 1
cmsion = 0
ccy = 'USD'
holder.record_trade(ts, instr1, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts, instr2, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([pd.np.NaN, price], index=[instr1, instr2])
pnls = holder.get_instrument_pnl(ts, prices)
df_pnl1 = pd.concat([pd.Series([pd.np.NaN], index=[instr1]),
pd.Series([pd.np.NaN], index=[instr1]),
pd.Series([pd.np.NaN], index=[instr1])], axis=1)
df_pnl2 = pd.concat([pd.Series([0.0], index=[instr2]),
pd.Series([0.0], index=[instr2]),
pd.Series([0.0], index=[instr2])], axis=1)
df_pnl = pd.concat([df_pnl1, df_pnl2], axis=0)
df_pnl.columns = PNL_COLS
pnls_exp = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_exp)
# historical instrument pnl
def test_instrument_pnl_hist_no_trades(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
prices = pd.Series([])
holder.get_instrument_pnl(ts, prices)
instr_pnls = holder.get_instrument_pnl_history()
self.assertNestedDictFrameEqual(instr_pnls, {})
def test_instrument_pnl_hist_one_instrument(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([57], index=[instr])
holder.get_instrument_pnl(ts, prices)
pnls = holder.get_instrument_pnl_history()
df_pnl = pd.DataFrame([[-0.5, -2.5, 2.0]], index=[ts],
columns=PNL_COLS)
pnls_expected = {'USD': {'CLZ6': df_pnl}}
self.assertNestedDictFrameEqual(pnls, pnls_expected)
def test_instrument_pnl_hist_one_instrument_no_cache(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([57], index=[instr])
holder.get_instrument_pnl(ts, prices, cache=False)
pnls = holder.get_instrument_pnl_history()
pnls_expected = {}
self.assertNestedDictFrameEqual(pnls, pnls_expected)
def test_instrument_pnl_hist_two_instrument_one_ccy_diff_lengths(self):
holder = blotter.Holdings()
ts1 = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts1, instr, price, quantity, mult, cmsion, ccy)
ts2 = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([56], index=[instr])
holder.get_instrument_pnl(ts2, prices)
ts3 = pd.Timestamp('2016-12-01T12:00:00')
instr2 = 'COZ6'
price = 50
holder.record_trade(ts3, instr2, price, quantity, mult, cmsion, ccy)
ts4 = pd.Timestamp('2016-12-01T13:00:00')
prices = pd.Series([57, 49], index=[instr, instr2])
holder.get_instrument_pnl(ts4, prices)
pnls = holder.get_instrument_pnl_history()
pnl_cz = [[-1.5, -2.5, 1.0], [-0.5, -2.5, 2.0]]
pnl_co = [[-3.5, -2.5, -1.0]]
df_pnl_cz = pd.DataFrame(pnl_cz, index=[ts2, ts4], columns=PNL_COLS)
df_pnl_co = pd.DataFrame(pnl_co, index=[ts4], columns=PNL_COLS)
df_pnl_cz.columns = PNL_COLS
df_pnl_co.columns = PNL_COLS
pnls_exp = {'USD': {'CLZ6': df_pnl_cz, 'COZ6': df_pnl_co}}
self.assertNestedDictFrameEqual(pnls, pnls_exp)
def test_pnl_calc_pre_trade(self):
holder = blotter.Holdings()
ts1 = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts1, instr, price, quantity, mult, cmsion, ccy)
ts2 = pd.Timestamp('2016-12-01T09:00:00')
prices = pd.Series([56], index=[instr])
def pnl_out_of_order():
holder.get_instrument_pnl(ts2, prices)
self.assertRaises(ValueError, pnl_out_of_order)
def test_instrument_pnl_hist_two_instrument_two_ccy_two_marks(self):
holder = blotter.Holdings()
ts1 = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
instr2 = 'COZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
ccy2 = 'CAD'
holder.record_trade(ts1, instr, price, quantity, mult, cmsion, ccy)
holder.record_trade(ts1, instr2, price, quantity, mult, cmsion, ccy2)
ts2 = pd.Timestamp('2016-12-01T10:30:00')
prices = pd.Series([56, 57], index=[instr, instr2])
holder.get_instrument_pnl(ts2, prices)
ts3 = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([57, 58], index=[instr, instr2])
holder.get_instrument_pnl(ts3, prices)
pnls = holder.get_instrument_pnl_history()
pnl_cz = [[-1.5, -2.5, 1.0], [-0.5, -2.5, 2.0]]
pnl_co = [[-0.5, -2.5, 2.0], [0.5, -2.5, 3.0]]
df_pnl_cz = pd.DataFrame(pnl_cz, index=[ts2, ts3], columns=PNL_COLS)
df_pnl_co = pd.DataFrame(pnl_co, index=[ts2, ts3], columns=PNL_COLS)
df_pnl_cz.columns = PNL_COLS
df_pnl_co.columns = PNL_COLS
pnls_exp = {'USD': {'CLZ6': df_pnl_cz},
'CAD': {'COZ6': df_pnl_co}}
self.assertNestedDictFrameEqual(pnls, pnls_exp)
# historical aggregate level PnL tests
def test_pnl_hist_no_trades(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
prices = pd.Series([])
holder.get_instrument_pnl(ts, prices)
pnls = holder.get_pnl_history()
self.assertNestedDictFrameEqual(pnls, {})
def test_pnl_hist_one_instrument(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([57], index=[instr])
holder.get_instrument_pnl(ts, prices)
pnls = holder.get_pnl_history()
df_pnl = pd.DataFrame([[-0.5, -2.5, 2.0]], index=[ts],
columns=PNL_COLS)
pnls_expected = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_expected)
def test_pnl_hist_two_instrument(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr1 = 'CLZ6'
price1 = 55
quantity1 = 1
mult = 1
instr2 = 'COZ6'
price2 = 54
quantity2 = 2
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr1, price1, quantity1, mult, cmsion, ccy)
holder.record_trade(ts, instr2, price2, quantity2, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
prices = pd.Series([57, 53], index=[instr1, instr2])
holder.get_instrument_pnl(ts, prices)
pnls = holder.get_pnl_history()
df_pnl = pd.DataFrame([[-5.0, -5.0, 0.0]], index=[ts],
columns=PNL_COLS)
pnls_expected = {'USD': df_pnl}
self.assertDictFrameEqual(pnls, pnls_expected)
def test_pnl_hist_two_instr_two_ccy_sweep_interest(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
holder.record_trade(ts, 'CLZ6', 55, 1, 1, 2.50, 'USD')
holder.record_trade(ts, 'USDJPY', 110.00, 1000, 1, 0, 'JPY')
ts_eod1 = pd.Timestamp('2016-12-01T16:00:00')
prices = pd.Series([56, 111.00], index=['CLZ6', 'USDJPY'])
holder.charge_interest(ts_eod1, 'USD', 0.1)
holder.charge_interest(ts_eod1, 'JPY', -1)
holder.get_instrument_pnl(ts_eod1, prices)
ts_eod2 = pd.Timestamp('2016-12-02T16:00:00')
holder.record_trade(ts_eod2, 'USDJPY', 112.0, -1000, 1, 0, 'JPY')
usd = ((112 - 110) * 1000 - 1) / 112.0
jpy = -((112 - 110) * 1000 - 1)
holder.sweep_pnl(ts_eod2, 'USD', usd, 'JPY', jpy)
prices = pd.Series([57], index=['CLZ6'])
holder.get_instrument_pnl(ts_eod2, prices)
pnls = holder.get_pnl_history()
closed = 0.1 - 2.5 + usd
pnl_usd = pd.DataFrame([[-1.4, -2.4, 1.0], [2 + closed, closed, 2.0]],
index=[ts_eod1, ts_eod2], columns=PNL_COLS)
pnl_jpy = pd.DataFrame([[999.0, -1.0, 1000.0], [0.0, 0.0, 0.0]],
index=[ts_eod1, ts_eod2], columns=PNL_COLS)
pnls_expected = {'USD': pnl_usd, 'JPY': pnl_jpy}
self.assertDictFrameEqual(pnls, pnls_expected)
def test_pnl_hist_multi_sweep_same_time(self):
holder = blotter.Holdings()
ts_eod1 = pd.Timestamp('2016-12-01T16:00:00')
holder.sweep_pnl(ts_eod1, 'USD', 1.0, 'JPY', -1.0)
holder.sweep_pnl(ts_eod1, 'USD', 1.0, 'JPY', -1.0)
ts_eod2 = pd.Timestamp('2016-12-02T16:00:00')
holder.charge_interest(ts_eod2, 'USD', 0.1)
pnl_history = holder.get_pnl_history()
jpy = pd.DataFrame([[-2.0, -2.0, 0]], index=[ts_eod1],
columns=PNL_COLS)
usd = pd.DataFrame([[2.0, 2.0, 0.0], [2.1, 2.1, 0.0]],
index=pd.DatetimeIndex([ts_eod1, ts_eod2]),
columns=PNL_COLS)
pnl_history_exp = {"JPY": jpy, "USD": usd}
self.assertDictFrameEqual(pnl_history, pnl_history_exp)
def test_pnl_hist_multi_interest_charge_same_time(self):
holder = blotter.Holdings()
ts_eod1 = pd.Timestamp('2016-12-01T16:00:00')
holder.charge_interest(ts_eod1, 'USD', 1.0)
holder.charge_interest(ts_eod1, 'USD', 5.0)
ts_eod2 = pd.Timestamp('2016-12-02T16:00:00')
holder.sweep_pnl(ts_eod2, 'USD', 1.0, 'JPY', -1)
pnl_history = holder.get_pnl_history()
jpy = pd.DataFrame([[-1, -1, 0]], index=[ts_eod2],
columns=PNL_COLS)
usd = pd.DataFrame([[6.0, 6.0, 0.0], [7.0, 7.0, 0.0]],
index=pd.DatetimeIndex([ts_eod1, ts_eod2]),
columns=PNL_COLS)
pnl_history_exp = {"JPY": jpy,
"USD": usd}
self.assertDictFrameEqual(pnl_history, pnl_history_exp)
# aggregate level PnL tests
def test_pnl_no_trades(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
prices = pd.Series([])
pnl = holder.get_pnl(ts, prices)
exp_pnl = pd.DataFrame([], columns=PNL_COLS,
dtype='float64')
assert_frame_equal(pnl, exp_pnl)
def test_pnl_one_instrument_one_trade_one_ccy(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
pnl = holder.get_pnl(ts, pd.Series([56], index=[instr]))
pnl_tot = pd.Series([-1.50], index=['USD'])
pnl_closed = pd.Series([-2.50], index=['USD'])
pnl_open = pd.Series([1.0], index=['USD'])
exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1)
exp_pnl.columns = PNL_COLS
assert_frame_equal(pnl, exp_pnl)
def test_pnl_one_instrument_all_closed_one_ccy_dummy_prices(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
price = 65
quantity = -1
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T12:00:00')
pnl = holder.get_pnl(ts, pd.Series())
pnl_tot = pd.Series([5.0], index=['USD'])
pnl_closed = pd.Series([5.0], index=['USD'])
pnl_open = pd.Series([0.0], index=['USD'])
exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1)
exp_pnl.columns = PNL_COLS
assert_frame_equal(pnl, exp_pnl)
def test_pnl_one_instrument_all_closed_one_ccy_no_prices(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 1
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
price = 65
quantity = -1
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T12:00:00')
pnl = holder.get_pnl(ts)
pnl_tot = pd.Series([5.0], index=['USD'])
pnl_closed = pd.Series([5.0], index=['USD'])
pnl_open = pd.Series([0.0], index=['USD'])
exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1)
exp_pnl.columns = PNL_COLS
assert_frame_equal(pnl, exp_pnl)
def test_pnl_one_instrument_two_trades_one_ccy(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'CLZ6'
price = 55
quantity = 5
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T11:00:00')
price = 65
quantity = -1
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T12:00:00')
new_price = pd.Series([70], index=[instr])
pnl = holder.get_pnl(ts, new_price)
pnl_tot = pd.Series([65.0], index=['USD'])
pnl_closed = pd.Series([5.0], index=['USD'])
pnl_open = pd.Series([60.0], index=['USD'])
exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1)
exp_pnl.columns = PNL_COLS
assert_frame_equal(pnl, exp_pnl)
def test_pnl_one_instrument_one_trade_with_interest_one_ccy(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
instr = 'AUDUSD'
price = 0.80
quantity = 1000000
mult = 1
cmsion = 2.50
ccy = 'USD'
holder.record_trade(ts, instr, price, quantity, mult, cmsion, ccy)
ts = pd.Timestamp('2016-12-01T16:00:00')
# accrue interest on long AUD position, pay on short USD position
holder.charge_interest(ts, 'AUD', 55)
holder.charge_interest(ts, 'USD', -15)
new_price = pd.Series([0.81], index=[instr])
pnl = holder.get_pnl(ts, new_price)
pnl_tot = pd.Series([55, 10000.0 - 2.50 - 15], index=['AUD', 'USD'])
pnl_closed = pd.Series([55, -2.5 - 15], index=['AUD', 'USD'])
pnl_open = pd.Series([0, 10000.0], index=['AUD', 'USD'])
exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1)
exp_pnl.columns = PNL_COLS
assert_frame_equal(pnl, exp_pnl)
def test_pnl_sweep(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
aud = 5000
usd = 5000 * 0.80
holder.sweep_pnl(ts, 'AUD', -aud, 'USD', usd)
# pass dummy prices since never used since no trades
pnl = holder.get_pnl(ts, pd.Series([]))
pnl_tot = pd.Series([-5000.0, 4000.0], index=['AUD', 'USD'])
pnl_closed = pd.Series([-5000.0, 4000.0], index=['AUD', 'USD'])
pnl_open = pd.Series([0.0, 0.0], index=['AUD', 'USD'])
exp_pnl = pd.concat([pnl_tot, pnl_closed, pnl_open], axis=1)
exp_pnl.columns = PNL_COLS
assert_frame_equal(pnl, exp_pnl)
def test_pnl_sweep_out_of_order(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
aud = 5000
# just use filler exchange rate
holder.sweep_pnl(ts, 'AUD', aud, 'USD', -aud)
ts = pd.Timestamp('2016-12-01T09:00:00')
def out_of_order_sweep():
holder.sweep_pnl(ts, 'AUD', aud, 'USD', -aud)
self.assertRaises(ValueError, out_of_order_sweep)
def test_pnl_sweep_closed_position(self):
holder = blotter.Holdings()
ts = pd.Timestamp('2016-12-01T10:00:00')
holder.record_trade(ts, 'CLZ6', 55, 1, 1, 2.50, 'USD')
holder.record_trade(ts, 'USDJPY', 110.00, 1000, 1, 0, 'JPY')
ts_eod1 = pd.Timestamp('2016-12-01T16:00:00')
prices = pd.Series([56, 111.00], index=['CLZ6', 'USDJPY'])
holder.charge_interest(ts_eod1, 'USD', 0.1)
holder.charge_interest(ts_eod1, 'JPY', -1)
holder.get_instrument_pnl(ts_eod1, prices)
ts_eod2 = pd.Timestamp('2016-12-02T16:00:00')
holder.record_trade(ts_eod2, 'USDJPY', 112.0, -1000, 1, 0, 'JPY')
usd = ((112 - 110) * 1000 - 1) / 112.0
jpy = -((112 - 110) * 1000 - 1)
holder.sweep_pnl(ts_eod2, 'USD', usd, 'JPY', jpy)
prices = pd.Series([57], index=['CLZ6'])
pnls = holder.get_pnl(ts_eod2, prices)
closed = 0.1 - 2.5 + usd
pnls_exp = pd.DataFrame([[0.0, 0.0, 0.0], [2 + closed, closed, 2.0]],
index=['JPY', 'USD'], columns=PNL_COLS)
assert_frame_equal(pnls, pnls_exp)
| 36.559055 | 79 | 0.570913 | 4,894 | 37,144 | 4.169595 | 0.052513 | 0.03646 | 0.064687 | 0.073312 | 0.866265 | 0.84485 | 0.808684 | 0.780261 | 0.762521 | 0.732579 | 0 | 0.089741 | 0.289899 | 37,144 | 1,015 | 80 | 36.595074 | 0.683917 | 0.01688 | 0 | 0.70922 | 0 | 0 | 0.068548 | 0 | 0 | 0 | 0 | 0 | 0.093381 | 1 | 0.07565 | false | 0.002364 | 0.007092 | 0 | 0.083924 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
144f67abe7f08785d60a39cfcc49731cc748decd | 8,955 | py | Python | parameters.py | vfloeser/TumorDelivery | a48252c17b50397b1f51be21c0cf65ade87e9000 | [
"Apache-2.0"
] | null | null | null | parameters.py | vfloeser/TumorDelivery | a48252c17b50397b1f51be21c0cf65ade87e9000 | [
"Apache-2.0"
] | null | null | null | parameters.py | vfloeser/TumorDelivery | a48252c17b50397b1f51be21c0cf65ade87e9000 | [
"Apache-2.0"
] | null | null | null | ##########################################################################################
# G E N E R A L I N F O #
# #
# This file defines the parameters used in the simulation provided by Stapleton2013 #
# and Baxter 1989. Some of the parameters are variable. Their range will be given in #
# a comment. #
# #
##########################################################################################
import numpy
##########################################################################################
# S I M U L A T I O N ( v a r ) #
##########################################################################################
#p_inf = -2 #(-1) - (-3) mm Hg
tmin = 0.0 # start time (h)
tmax = 1.0 # end time (h)
Nr = 200 # space steps
R = 1.0 # tumor radius
al = 1 # fix alpha
p_v = 10 # vascular pressure
k = 3600*8.3e-6 # liposome clearance from plasma
k2 = 8.32 # exponential decay of temperature (lambda)
beta = 1.3e7 # drug loading coeff of DOX
Vr = 1e-3 # relation of tissue to blood volume
Cp = 0.5 # initial concentration
##########################################################################################
# T U M O R T I S S U E #
##########################################################################################
sigma = 0.19 # filtration reflection coeff
f = 0.5 # fractional rate of liposome transport (theta_l)
##########################################################################################
# S U P P L E M E N T A L I N F O #
##########################################################################################
##########################################################################################
# M E 1 8 0
##########################################################################################
##fc = 3600*25.1e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
##K = 3600*0.35e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
###p_v = 5.0 # 10 nominal, vary between 5 and 30
##p_imax = 4.7
###R = 4.99 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*46.5e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*0.15e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 5.0 # 10 nominal, vary between 5 and 30
#p_imax = 5.0
##R = 5.1 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*28.1e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*0.15e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 5.8 # 10 nominal, vary between 5 and 30
#p_imax = 5.7
##R = 5.3 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*6.3e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*10.8e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 9.2 # 10 nominal, vary between 5 and 30
#p_imax = 3.5
##R = 4.75 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*26.5e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*2.9e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 6.2 # 10 nominal, vary between 5 and 30
#p_imax = 4.6
##R = 1.7 # 0.5 nominal, vary between 1.7 and 42 (not possible)
##########################################################################################
# H 5 2 0
##########################################################################################
#fc = 3600*13.5e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*995e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 11.2 # 10 nominal, vary between 5 and 30
#p_imax = 1.9
##R = 130 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*11.7e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*999e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 11.2 # 10 nominal, vary between 5 and 30
#p_imax = 2.3
##R = 110 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*93.4e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*0.12e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 5.2 # 10 nominal, vary between 5 and 30
#p_imax = 4.7
##R = 45.6 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*46.9e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*0.13e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 5.1 # 10 nominal, vary between 5 and 30
#p_imax = 4.1
##R = 45.3 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*28.4e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*249e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 5.6 # 10 nominal, vary between 5 and 30
#p_imax = 1.7
##R = 120 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*38.8e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*448e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 7.8 # 10 nominal, vary between 5 and 30
#p_imax = 3.0
##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible)
##########################################################################################
# V X 2
##########################################################################################
#fc = 3600*4405e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*651e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 42.4 # 10 nominal, vary between 5 and 30
#p_imax = 42.4
##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible)
#
#fc = 3600*70.8e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*998e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 38.1 # 10 nominal, vary between 5 and 30
#p_imax = 36.6
#R = 42.5 # 0.5 nominal, vary between 1.7 and 42
#
#fc = 3600*1.4e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*541e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 17.5 # 10 nominal, vary between 5 and 30
#p_imax = 4.56
##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible)
#
#fc = 3600*1.1e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*988e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 26.3 # 10 nominal, vary between 5 and 30
#p_imax = 5.58
##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible)
#
#fc = 3600*963e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
#K = 3600*133e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
##p_v = 9.8 # 10 nominal, vary between 5 and 30
#p_imax = 9.81
##R = 1 # 0.5 nominal, vary between 1.7 and 42 (not possible)
#
fc = 3600*1088e-7 # 2.5e-5 nominal, vary between 0.28e-5 and 180e-5 (*e-7)
K = 3600*662e-7 # 7e-7 nominal, vary between 63e-7 and 0.1e-7 (*e-7)
#p_v = 26.8 # 10 nominal, vary between 5 and 30
p_imax = 19.8
#R = 0.78 # 0.5 nominal, vary between 1.7 and 42
##########################################################################################
V = R**3*4/3*numpy.pi #tumor volume
##########################################################################################
# B A X T E R 1 9 8 9 I N F O #
##########################################################################################
pi_v = 20
pi_i_n = 10 #normal tissue
pi_i_t = 15 #tumor tissue
sigma_t_n = 0.91 #normal tissue
sigma_t_t = 0.82 #tumor tissue
##########################################################################################
# S I M U L A T I O N ( d o n ' t c h a n g e ) #
##########################################################################################
Nt = int(Nr/R*(tmax-tmin)) # time steps
| 54.93865 | 90 | 0.39665 | 1,345 | 8,955 | 2.606691 | 0.130855 | 0.213349 | 0.349116 | 0.184256 | 0.749287 | 0.749287 | 0.745864 | 0.745864 | 0.745864 | 0.729321 | 0 | 0.162097 | 0.307649 | 8,955 | 162 | 91 | 55.277778 | 0.403387 | 0.706086 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.041667 | 0 | 0.041667 | 0 | 0 | 0 | 0 | null | 1 | 1 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 9 |
14565a05d07c9c2de7a84243b819f200fe0c7718 | 38,732 | py | Python | ocbind/system/aaa/__init__.py | SeanCondon/onos-config-demo | 0789d397b46fd5cda512ae7fffe35e1a4bfdfdbe | [
"Apache-2.0"
] | 1 | 2019-08-01T17:42:57.000Z | 2019-08-01T17:42:57.000Z | ocbind/system/aaa/__init__.py | SeanCondon/onos-config-demo | 0789d397b46fd5cda512ae7fffe35e1a4bfdfdbe | [
"Apache-2.0"
] | 1 | 2021-05-26T16:38:04.000Z | 2021-05-26T16:38:04.000Z | ocbind/system/aaa/__init__.py | SeanCondon/onos-config-demo | 0789d397b46fd5cda512ae7fffe35e1a4bfdfdbe | [
"Apache-2.0"
] | 4 | 2019-07-24T16:52:39.000Z | 2021-12-03T02:08:13.000Z | # -*- coding: utf-8 -*-
from operator import attrgetter
import pyangbind.lib.xpathhelper as xpathhelper
from pyangbind.lib.yangtypes import RestrictedPrecisionDecimalType
from pyangbind.lib.yangtypes import RestrictedClassType
from pyangbind.lib.yangtypes import TypedListType
from pyangbind.lib.yangtypes import YANGBool
from pyangbind.lib.yangtypes import YANGListType
from pyangbind.lib.yangtypes import YANGDynClass
from pyangbind.lib.yangtypes import ReferenceType
from pyangbind.lib.base import PybindBase
from collections import OrderedDict
from decimal import Decimal
from bitarray import bitarray
import six
# PY3 support of some PY2 keywords (needs improved)
if six.PY3:
import builtins as __builtin__
long = int
elif six.PY2:
import __builtin__
from . import authentication
from . import authorization
from . import accounting
from . import server_groups
class aaa(PybindBase):
"""
This class was auto-generated by the PythonClass plugin for PYANG
from YANG module openconfig-system - based on the path /system/aaa. Each member element of
the container is represented as a class variable - with a specific
YANG type.
YANG Description: Top-level container for AAA services
"""
__slots__ = ('_path_helper', '_extmethods', '__authentication','__authorization','__accounting','__server_groups',)
_yang_name = 'aaa'
_pybind_generated_by = 'container'
def __init__(self, *args, **kwargs):
helper = kwargs.pop("path_helper", None)
if helper is False:
self._path_helper = False
elif helper is not None and isinstance(helper, xpathhelper.YANGPathHelper):
self._path_helper = helper
elif hasattr(self, "_parent"):
helper = getattr(self._parent, "_path_helper", False)
self._path_helper = helper
else:
self._path_helper = False
self._extmethods = False
self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
load = kwargs.pop("load", None)
if args:
if len(args) > 1:
raise TypeError("cannot create a YANG container with >1 argument")
all_attr = True
for e in self._pyangbind_elements:
if not hasattr(args[0], e):
all_attr = False
break
if not all_attr:
raise ValueError("Supplied object did not have the correct attributes")
for e in self._pyangbind_elements:
nobj = getattr(args[0], e)
if nobj._changed() is False:
continue
setmethod = getattr(self, "_set_%s" % e)
if load is None:
setmethod(getattr(args[0], e))
else:
setmethod(getattr(args[0], e), load=load)
def _path(self):
if hasattr(self, "_parent"):
return self._parent._path()+[self._yang_name]
else:
return ['system', 'aaa']
def _get_authentication(self):
"""
Getter method for authentication, mapped from YANG variable /system/aaa/authentication (container)
YANG Description: Top-level container for global authentication data
"""
return self.__authentication
def _set_authentication(self, v, load=False):
"""
Setter method for authentication, mapped from YANG variable /system/aaa/authentication (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_authentication is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_authentication() directly.
YANG Description: Top-level container for global authentication data
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """authentication must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__authentication = t
if hasattr(self, '_set'):
self._set()
def _unset_authentication(self):
self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_authorization(self):
"""
Getter method for authorization, mapped from YANG variable /system/aaa/authorization (container)
YANG Description: Top-level container for AAA authorization configuration
and operational state data
"""
return self.__authorization
def _set_authorization(self, v, load=False):
"""
Setter method for authorization, mapped from YANG variable /system/aaa/authorization (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_authorization is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_authorization() directly.
YANG Description: Top-level container for AAA authorization configuration
and operational state data
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """authorization must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__authorization = t
if hasattr(self, '_set'):
self._set()
def _unset_authorization(self):
self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_accounting(self):
"""
Getter method for accounting, mapped from YANG variable /system/aaa/accounting (container)
YANG Description: Top-level container for AAA accounting
"""
return self.__accounting
def _set_accounting(self, v, load=False):
"""
Setter method for accounting, mapped from YANG variable /system/aaa/accounting (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_accounting is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_accounting() directly.
YANG Description: Top-level container for AAA accounting
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """accounting must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__accounting = t
if hasattr(self, '_set'):
self._set()
def _unset_accounting(self):
self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_server_groups(self):
"""
Getter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container)
YANG Description: Enclosing container for AAA server groups
"""
return self.__server_groups
def _set_server_groups(self, v, load=False):
"""
Setter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_server_groups is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_server_groups() directly.
YANG Description: Enclosing container for AAA server groups
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """server_groups must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__server_groups = t
if hasattr(self, '_set'):
self._set()
def _unset_server_groups(self):
self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
authentication = __builtin__.property(_get_authentication, _set_authentication)
authorization = __builtin__.property(_get_authorization, _set_authorization)
accounting = __builtin__.property(_get_accounting, _set_accounting)
server_groups = __builtin__.property(_get_server_groups, _set_server_groups)
_pyangbind_elements = OrderedDict([('authentication', authentication), ('authorization', authorization), ('accounting', accounting), ('server_groups', server_groups), ])
from . import authentication
from . import authorization
from . import accounting
from . import server_groups
class aaa(PybindBase):
"""
This class was auto-generated by the PythonClass plugin for PYANG
from YANG module openconfig-system - based on the path /system/aaa. Each member element of
the container is represented as a class variable - with a specific
YANG type.
YANG Description: Top-level container for AAA services
"""
__slots__ = ('_path_helper', '_extmethods', '__authentication','__authorization','__accounting','__server_groups',)
_yang_name = 'aaa'
_pybind_generated_by = 'container'
def __init__(self, *args, **kwargs):
helper = kwargs.pop("path_helper", None)
if helper is False:
self._path_helper = False
elif helper is not None and isinstance(helper, xpathhelper.YANGPathHelper):
self._path_helper = helper
elif hasattr(self, "_parent"):
helper = getattr(self._parent, "_path_helper", False)
self._path_helper = helper
else:
self._path_helper = False
self._extmethods = False
self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
load = kwargs.pop("load", None)
if args:
if len(args) > 1:
raise TypeError("cannot create a YANG container with >1 argument")
all_attr = True
for e in self._pyangbind_elements:
if not hasattr(args[0], e):
all_attr = False
break
if not all_attr:
raise ValueError("Supplied object did not have the correct attributes")
for e in self._pyangbind_elements:
nobj = getattr(args[0], e)
if nobj._changed() is False:
continue
setmethod = getattr(self, "_set_%s" % e)
if load is None:
setmethod(getattr(args[0], e))
else:
setmethod(getattr(args[0], e), load=load)
def _path(self):
if hasattr(self, "_parent"):
return self._parent._path()+[self._yang_name]
else:
return ['system', 'aaa']
def _get_authentication(self):
"""
Getter method for authentication, mapped from YANG variable /system/aaa/authentication (container)
YANG Description: Top-level container for global authentication data
"""
return self.__authentication
def _set_authentication(self, v, load=False):
"""
Setter method for authentication, mapped from YANG variable /system/aaa/authentication (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_authentication is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_authentication() directly.
YANG Description: Top-level container for global authentication data
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """authentication must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__authentication = t
if hasattr(self, '_set'):
self._set()
def _unset_authentication(self):
self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_authorization(self):
"""
Getter method for authorization, mapped from YANG variable /system/aaa/authorization (container)
YANG Description: Top-level container for AAA authorization configuration
and operational state data
"""
return self.__authorization
def _set_authorization(self, v, load=False):
"""
Setter method for authorization, mapped from YANG variable /system/aaa/authorization (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_authorization is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_authorization() directly.
YANG Description: Top-level container for AAA authorization configuration
and operational state data
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """authorization must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__authorization = t
if hasattr(self, '_set'):
self._set()
def _unset_authorization(self):
self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_accounting(self):
"""
Getter method for accounting, mapped from YANG variable /system/aaa/accounting (container)
YANG Description: Top-level container for AAA accounting
"""
return self.__accounting
def _set_accounting(self, v, load=False):
"""
Setter method for accounting, mapped from YANG variable /system/aaa/accounting (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_accounting is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_accounting() directly.
YANG Description: Top-level container for AAA accounting
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """accounting must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__accounting = t
if hasattr(self, '_set'):
self._set()
def _unset_accounting(self):
self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_server_groups(self):
"""
Getter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container)
YANG Description: Enclosing container for AAA server groups
"""
return self.__server_groups
def _set_server_groups(self, v, load=False):
"""
Setter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_server_groups is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_server_groups() directly.
YANG Description: Enclosing container for AAA server groups
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """server_groups must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__server_groups = t
if hasattr(self, '_set'):
self._set()
def _unset_server_groups(self):
self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
authentication = __builtin__.property(_get_authentication, _set_authentication)
authorization = __builtin__.property(_get_authorization, _set_authorization)
accounting = __builtin__.property(_get_accounting, _set_accounting)
server_groups = __builtin__.property(_get_server_groups, _set_server_groups)
_pyangbind_elements = OrderedDict([('authentication', authentication), ('authorization', authorization), ('accounting', accounting), ('server_groups', server_groups), ])
from . import authentication
from . import authorization
from . import accounting
from . import server_groups
class aaa(PybindBase):
"""
This class was auto-generated by the PythonClass plugin for PYANG
from YANG module openconfig-system - based on the path /system/aaa. Each member element of
the container is represented as a class variable - with a specific
YANG type.
YANG Description: Top-level container for AAA services
"""
__slots__ = ('_path_helper', '_extmethods', '__authentication','__authorization','__accounting','__server_groups',)
_yang_name = 'aaa'
_pybind_generated_by = 'container'
def __init__(self, *args, **kwargs):
helper = kwargs.pop("path_helper", None)
if helper is False:
self._path_helper = False
elif helper is not None and isinstance(helper, xpathhelper.YANGPathHelper):
self._path_helper = helper
elif hasattr(self, "_parent"):
helper = getattr(self._parent, "_path_helper", False)
self._path_helper = helper
else:
self._path_helper = False
self._extmethods = False
self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
load = kwargs.pop("load", None)
if args:
if len(args) > 1:
raise TypeError("cannot create a YANG container with >1 argument")
all_attr = True
for e in self._pyangbind_elements:
if not hasattr(args[0], e):
all_attr = False
break
if not all_attr:
raise ValueError("Supplied object did not have the correct attributes")
for e in self._pyangbind_elements:
nobj = getattr(args[0], e)
if nobj._changed() is False:
continue
setmethod = getattr(self, "_set_%s" % e)
if load is None:
setmethod(getattr(args[0], e))
else:
setmethod(getattr(args[0], e), load=load)
def _path(self):
if hasattr(self, "_parent"):
return self._parent._path()+[self._yang_name]
else:
return ['system', 'aaa']
def _get_authentication(self):
"""
Getter method for authentication, mapped from YANG variable /system/aaa/authentication (container)
YANG Description: Top-level container for global authentication data
"""
return self.__authentication
def _set_authentication(self, v, load=False):
"""
Setter method for authentication, mapped from YANG variable /system/aaa/authentication (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_authentication is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_authentication() directly.
YANG Description: Top-level container for global authentication data
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """authentication must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__authentication = t
if hasattr(self, '_set'):
self._set()
def _unset_authentication(self):
self.__authentication = YANGDynClass(base=authentication.authentication, is_container='container', yang_name="authentication", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_authorization(self):
"""
Getter method for authorization, mapped from YANG variable /system/aaa/authorization (container)
YANG Description: Top-level container for AAA authorization configuration
and operational state data
"""
return self.__authorization
def _set_authorization(self, v, load=False):
"""
Setter method for authorization, mapped from YANG variable /system/aaa/authorization (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_authorization is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_authorization() directly.
YANG Description: Top-level container for AAA authorization configuration
and operational state data
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """authorization must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__authorization = t
if hasattr(self, '_set'):
self._set()
def _unset_authorization(self):
self.__authorization = YANGDynClass(base=authorization.authorization, is_container='container', yang_name="authorization", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_accounting(self):
"""
Getter method for accounting, mapped from YANG variable /system/aaa/accounting (container)
YANG Description: Top-level container for AAA accounting
"""
return self.__accounting
def _set_accounting(self, v, load=False):
"""
Setter method for accounting, mapped from YANG variable /system/aaa/accounting (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_accounting is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_accounting() directly.
YANG Description: Top-level container for AAA accounting
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """accounting must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__accounting = t
if hasattr(self, '_set'):
self._set()
def _unset_accounting(self):
self.__accounting = YANGDynClass(base=accounting.accounting, is_container='container', yang_name="accounting", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
def _get_server_groups(self):
"""
Getter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container)
YANG Description: Enclosing container for AAA server groups
"""
return self.__server_groups
def _set_server_groups(self, v, load=False):
"""
Setter method for server_groups, mapped from YANG variable /system/aaa/server_groups (container)
If this variable is read-only (config: false) in the
source YANG file, then _set_server_groups is considered as a private
method. Backends looking to populate this variable should
do so via calling thisObj._set_server_groups() directly.
YANG Description: Enclosing container for AAA server groups
"""
if hasattr(v, "_utype"):
v = v._utype(v)
try:
t = YANGDynClass(v,base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
except (TypeError, ValueError):
raise ValueError({
'error-string': """server_groups must be of a type compatible with container""",
'defined-type': "container",
'generated-type': """YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)""",
})
self.__server_groups = t
if hasattr(self, '_set'):
self._set()
def _unset_server_groups(self):
self.__server_groups = YANGDynClass(base=server_groups.server_groups, is_container='container', yang_name="server-groups", parent=self, path_helper=self._path_helper, extmethods=self._extmethods, register_paths=True, extensions=None, namespace='http://openconfig.net/yang/system', defining_module='openconfig-system', yang_type='container', is_config=True)
authentication = __builtin__.property(_get_authentication, _set_authentication)
authorization = __builtin__.property(_get_authorization, _set_authorization)
accounting = __builtin__.property(_get_accounting, _set_accounting)
server_groups = __builtin__.property(_get_server_groups, _set_server_groups)
_pyangbind_elements = OrderedDict([('authentication', authentication), ('authorization', authorization), ('accounting', accounting), ('server_groups', server_groups), ])
| 55.890332 | 371 | 0.744217 | 4,732 | 38,732 | 5.858411 | 0.038039 | 0.042205 | 0.054542 | 0.041555 | 0.98503 | 0.977202 | 0.977202 | 0.977202 | 0.977202 | 0.977202 | 0 | 0.000694 | 0.144428 | 38,732 | 692 | 372 | 55.971098 | 0.835868 | 0.205334 | 0 | 0.952141 | 0 | 0.030227 | 0.302424 | 0.084051 | 0 | 0 | 0 | 0 | 0 | 1 | 0.105793 | false | 0 | 0.070529 | 0 | 0.289673 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
14802e9a3cbf64aba64231a34e17a33f6d26cae5 | 6,583 | py | Python | tests/common/data_access/test_data/fake_violation_dao_data.py | pombredanne/forseti-security | 68a9a88243460065e00b6c131b3d9abd0331fb37 | [
"Apache-2.0"
] | 1 | 2018-03-26T08:15:21.000Z | 2018-03-26T08:15:21.000Z | tests/common/data_access/test_data/fake_violation_dao_data.py | pombredanne/forseti-security | 68a9a88243460065e00b6c131b3d9abd0331fb37 | [
"Apache-2.0"
] | null | null | null | tests/common/data_access/test_data/fake_violation_dao_data.py | pombredanne/forseti-security | 68a9a88243460065e00b6c131b3d9abd0331fb37 | [
"Apache-2.0"
] | null | null | null | # Copyright 2017 The Forseti Security Authors. All rights reserved.
#
# Licensed under the Apache License, Version 2.0 (the 'License');
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an 'AS IS' BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
"""Test data for violation dao tests."""
ROWS_MAP_BY_RESOURCE_1 = [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_1',
'rule_name': 'fake rule 1',
'rule_index': 0,
'violation_type': 'ADDED',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_2',
'rule_name': 'fake rule 2',
'rule_index': 0,
'violation_type': 'REMOVED',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_3',
'rule_name': 'fake rule 3',
'rule_index': 0,
'violation_type': 'BIGQUERY_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_4',
'rule_name': 'fake rule 4',
'rule_index': 0,
'violation_type': 'BUCKET_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_5',
'rule_name': 'fake rule 5',
'rule_index': 0,
'violation_type': 'CLOUD_SQL_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_6',
'rule_name': 'fake rule 6',
'rule_index': 0,
'violation_type': 'FORWARDING_RULE_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_7',
'rule_name': 'fake rule 7',
'rule_index': 0,
'violation_type': 'FIREWALL_BLACKLIST_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_8',
'rule_name': 'fake rule 8',
'rule_index': 0,
'violation_type': 'FIREWALL_MATCHES_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_9',
'rule_name': 'fake rule 9',
'rule_index': 0,
'violation_type': 'FIREWALL_REQUIRED_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_10',
'rule_name': 'fake rule 10',
'rule_index': 0,
'violation_type': 'FIREWALL_WHITELIST_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_11',
'rule_name': 'fake rule 11',
'rule_index': 0,
'violation_type': 'GROUP_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_12',
'rule_name': 'fake rule 12',
'rule_index': 0,
'violation_type': 'IAP_VIOLATION',
'violation_data': '{}'},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_13',
'rule_name': 'fake rule 13',
'rule_index': 0,
'violation_type': 'INSTANCE_NETWORK_INTERFACE_VIOLATION',
'violation_data': '{}'},
]
EXPECTED_MAP_BY_RESOURCE_1 = {
'policy_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_1',
'rule_name': 'fake rule 1',
'rule_index': 0,
'violation_type': 'ADDED',
'violation_data': {}},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_2',
'rule_name': 'fake rule 2',
'rule_index': 0,
'violation_type': 'REMOVED',
'violation_data': {}},
],
'bigquery_acl_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_3',
'rule_name': 'fake rule 3',
'rule_index': 0,
'violation_type': 'BIGQUERY_VIOLATION',
'violation_data': {}},
],
'buckets_acl_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_4',
'rule_name': 'fake rule 4',
'rule_index': 0,
'violation_type': 'BUCKET_VIOLATION',
'violation_data': {}},
],
'cloudsql_acl_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_5',
'rule_name': 'fake rule 5',
'rule_index': 0,
'violation_type': 'CLOUD_SQL_VIOLATION',
'violation_data': {}},
],
'forwarding_rule_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_6',
'rule_name': 'fake rule 6',
'rule_index': 0,
'violation_type': 'FORWARDING_RULE_VIOLATION',
'violation_data': {}},
],
'firewall_rule_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_7',
'rule_name': 'fake rule 7',
'rule_index': 0,
'violation_type': 'FIREWALL_BLACKLIST_VIOLATION',
'violation_data': {}},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_8',
'rule_name': 'fake rule 8',
'rule_index': 0,
'violation_type': 'FIREWALL_MATCHES_VIOLATION',
'violation_data': {}},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_9',
'rule_name': 'fake rule 9',
'rule_index': 0,
'violation_type': 'FIREWALL_REQUIRED_VIOLATION',
'violation_data': {}},
{'resource_type': 'fake_type',
'resource_id': 'fake_id_10',
'rule_name': 'fake rule 10',
'rule_index': 0,
'violation_type': 'FIREWALL_WHITELIST_VIOLATION',
'violation_data': {}},
],
'groups_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_11',
'rule_name': 'fake rule 11',
'rule_index': 0,
'violation_type': 'GROUP_VIOLATION',
'violation_data': {}},
],
'iap_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_12',
'rule_name': 'fake rule 12',
'rule_index': 0,
'violation_type': 'IAP_VIOLATION',
'violation_data': {}},
],
'instance_network_interface_violations': [
{'resource_type': 'fake_type',
'resource_id': 'fake_id_13',
'rule_name': 'fake rule 13',
'rule_index': 0,
'violation_type': 'INSTANCE_NETWORK_INTERFACE_VIOLATION',
'violation_data': {}},
],
}
| 33.586735 | 74 | 0.58727 | 746 | 6,583 | 4.785523 | 0.155496 | 0.087395 | 0.116527 | 0.145658 | 0.826611 | 0.826611 | 0.826611 | 0.826611 | 0.826611 | 0.815406 | 0 | 0.021078 | 0.250494 | 6,583 | 195 | 75 | 33.758974 | 0.702473 | 0.094486 | 0 | 0.926966 | 0 | 0 | 0.567222 | 0.083291 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
14a0fb09369093c93054c0a4224a668f0e9081f2 | 45 | py | Python | tests/test_sample.py | elric97/CmyPlot | ce4490d3075b2c6cb47ad8eb5f35add2e2b66a3f | [
"MIT"
] | 1 | 2021-11-06T18:30:48.000Z | 2021-11-06T18:30:48.000Z | tests/test_sample.py | freakNewton/CmyPlot | bc940a219137e9252e37655afef7435d6f913178 | [
"MIT"
] | 23 | 2021-10-17T15:35:33.000Z | 2021-11-15T06:31:25.000Z | tests/test_sample.py | freakNewton/CmyPlot | bc940a219137e9252e37655afef7435d6f913178 | [
"MIT"
] | 2 | 2021-10-20T21:07:38.000Z | 2021-11-15T04:29:06.000Z | def test_sample():
assert 100 * 2 == 200
| 15 | 25 | 0.6 | 7 | 45 | 3.714286 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.212121 | 0.266667 | 45 | 2 | 26 | 22.5 | 0.575758 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.5 | 1 | 0.5 | true | 0 | 0 | 0 | 0.5 | 0 | 1 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
213d75fd325b2199ccf1f4a0fd06f2f442ac4524 | 24,413 | py | Python | adler/tensorflow/unet.py | jleuschn/adler | a64e15e78a08e9d2c386c9b5fb2da55a6d0da877 | [
"MIT"
] | 7 | 2018-04-26T08:01:26.000Z | 2020-05-20T19:45:05.000Z | adler/tensorflow/unet.py | jleuschn/adler | a64e15e78a08e9d2c386c9b5fb2da55a6d0da877 | [
"MIT"
] | 1 | 2019-11-28T14:37:37.000Z | 2019-11-28T21:49:11.000Z | adler/tensorflow/unet.py | jleuschn/adler | a64e15e78a08e9d2c386c9b5fb2da55a6d0da877 | [
"MIT"
] | 5 | 2018-07-01T05:03:53.000Z | 2019-11-28T21:36:02.000Z | import demandimport
with demandimport.enabled():
import tensorflow as tf
import numpy as np
from adler.tensorflow.layers import (conv2d, conv2dtransp,
conv1d, conv1dtransp,
maxpool2d, maxpool1d)
from adler.tensorflow.activation import prelu, leaky_relu
__all__ = ('UNet', 'reference_unet', 'residual_unet')
class UNet(object):
def __init__(self, nin, nout,
ndim=2,
depth=4, layers_per_depth=2,
features=32, feature_increase=2,
residual=False, # else skip
keep_prob=1.0,
use_batch_norm=True,
activation='prelu',
is_training=True,
name='unet'):
self.nin = nin
self.nout = nout
self.ndim = ndim
self.depth = depth
self.layers_per_depth = layers_per_depth
self.features = features
self.feature_increase = feature_increase
self.residual = residual
self.keep_prob = keep_prob
self.use_batch_norm = use_batch_norm
self.activation = activation
self.is_training = is_training
self.name = str(name)
with tf.name_scope('{}_variables'.format(self.name)):
self.w_in, self.b_in = self.get_weight_bias(nin, features)
self.w_down, self.b_down = [], []
self.w_up, self.b_up = [], []
for i in range(self.depth):
features_i = self.features_at(i)
self.w_down.append([])
self.b_down.append([])
self.w_up.append([])
self.b_up.append([])
for j in range(self.layers_per_depth):
with tf.name_scope('down_{}_{}'.format(i, j)):
if i > 0 and j == 0:
w, b = self.get_weight_bias(self.features_at(i - 1), features_i)
else:
w, b = self.get_weight_bias(features_i, features_i)
self.w_down[i].append(w)
self.b_down[i].append(b)
with tf.name_scope('up_{}_{}'.format(i, j)):
if j == 0:
w, b = self.get_weight_bias(self.features_at(i + 1), features_i, transpose=True)
elif j == 1:
w, b = self.get_weight_bias(features_i * 2, features_i)
else:
w, b = self.get_weight_bias(features_i, features_i)
self.w_up[i].append(w)
self.b_up[i].append(b)
features_i = self.features_at(self.depth)
self.w_coarse, self.b_coarse = [], []
for j in range(self.layers_per_depth):
with tf.name_scope('coarse_{}'.format(j)):
if j == 0:
w, b = self.get_weight_bias(self.features_at(self.depth - 1), features_i)
else:
w, b = self.get_weight_bias(features_i, features_i)
self.w_coarse.append(w)
self.b_coarse.append(b)
with tf.name_scope('out_{}'.format(j)):
self.w_out, self.b_out = self.get_weight_bias(features, nout)
def features_at(self, level):
return int(self.features * self.feature_increase ** level)
def get_weight_bias(self, nin, nout, transpose=False):
if self.ndim == 1:
# Xavier initialization
# stddev = np.sqrt(2.6 / (3 * (nin + nout)))
# He initialization
stddev = np.sqrt(2.6 / (3 * nin))
if transpose:
w = tf.Variable(tf.truncated_normal([3, nout, nin], stddev=stddev))
else:
w = tf.Variable(tf.truncated_normal([3, nin, nout], stddev=stddev))
b = tf.Variable(tf.constant(0.0, shape=[1, 1, nout]))
return w, b
elif self.ndim == 2:
# Xavier initialization
# stddev = np.sqrt(2.6 / (3 * 3 * (nin + nout)))
# He initialization
stddev = np.sqrt(2.6 / (3 * 3 * nin))
if transpose:
w = tf.Variable(tf.truncated_normal([3, 3, nout, nin], stddev=stddev))
else:
w = tf.Variable(tf.truncated_normal([3, 3, nin, nout], stddev=stddev))
b = tf.Variable(tf.constant(0.0, shape=[1, 1, 1, nout]))
return w, b
else:
raise ValueError('unknown ndim')
def apply_activation(self, x):
if self.activation == 'relu':
return tf.nn.relu(x)
elif self.activation == 'elu':
return tf.nn.elu(x)
elif self.activation == 'leaky_relu':
return leaky_relu(x)
elif self.activation == 'prelu':
return prelu(x)
else:
raise RuntimeError('unknown activation')
def apply_conv(self, x, w, b, stride=False,
disable_batch_norm=False,
disable_dropout=False,
disable_activation=False):
if stride:
if self.ndim == 1:
stride = 2
elif self.ndim == 2:
stride = (2, 2)
else:
if self.ndim == 1:
stride = 1
elif self.ndim == 2:
stride = (1, 1)
with tf.name_scope('apply_conv'):
if self.ndim == 1:
out = conv1d(x, w, stride=stride) + b
elif self.ndim == 2:
out = conv2d(x, w, stride=stride) + b
if self.use_batch_norm and not disable_batch_norm:
out = tf.contrib.layers.batch_norm(out,
is_training=self.is_training)
if self.keep_prob != 1.0 and not disable_dropout:
out = tf.contrib.layers.dropout(out, keep_prob=self.keep_prob,
is_training=self.is_training)
if not disable_activation:
out = self.apply_activation(out)
return out
def apply_convtransp(self, x, w, b, stride=False, out_shape=None,
disable_batch_norm=False,
disable_dropout=False,
disable_activation=False):
if stride:
if self.ndim == 1:
stride = 2
elif self.ndim == 2:
stride = (2, 2)
else:
if self.ndim == 1:
stride = 1
elif self.ndim == 2:
stride = (1, 1)
with tf.name_scope('apply_convtransp'):
if self.ndim == 1:
out = conv1dtransp(x, w, stride=stride, out_shape=out_shape) + b
elif self.ndim == 2:
out = conv2dtransp(x, w, stride=stride, out_shape=out_shape) + b
if self.use_batch_norm and not disable_batch_norm:
out = tf.contrib.layers.batch_norm(out,
is_training=self.is_training)
if self.keep_prob != 1.0 and not disable_dropout:
out = tf.contrib.layers.dropout(out, keep_prob=self.keep_prob,
is_training=self.is_training)
if not disable_activation:
out = self.apply_activation(out)
return out
def __call__(self, x):
finals = []
with tf.name_scope('{}_call'.format(self.name)):
with tf.name_scope('in'):
current = self.apply_conv(x, self.w_in, self.b_in)
# down layers
for i in range(self.depth):
with tf.name_scope('down_{}'.format(i)):
for j in range(self.layers_per_depth - 1):
current = self.apply_conv(current, self.w_down[i][j], self.b_down[i][j])
finals.append(current)
current = self.apply_conv(current, self.w_down[i][-1], self.b_down[i][-1], stride=True)
with tf.name_scope('coarse'):
for j in range(self.layers_per_depth):
current = self.apply_conv(current, self.w_coarse[j], self.b_coarse[j])
# up layers
for i in reversed(range(self.depth)):
with tf.name_scope('up_{}'.format(i)):
with tf.name_scope('upsampling'):
x_shape = tf.shape(finals[i])
W_shape = tf.shape(self.w_up[i][0])
if self.ndim == 1:
out_shape = tf.stack([x_shape[0],
x_shape[1],
W_shape[1]])
elif self.ndim == 2:
out_shape = tf.stack([x_shape[0],
x_shape[1],
x_shape[2],
W_shape[2]])
current = self.apply_convtransp(current, self.w_up[i][0], self.b_up[i][0], stride=True, out_shape=out_shape)
with tf.name_scope('skip_connection'):
current = tf.concat([current, finals[i]], axis=-1)
for j in range(1, self.layers_per_depth):
current = self.apply_conv(current, self.w_up[i][j], self.b_up[i][j])
with tf.name_scope('out'):
current = self.apply_conv(current, self.w_out, self.b_out,
disable_dropout=True,
disable_batch_norm=True,
disable_activation=True)
return current
def reference_unet(x, nout,
ndim=2,
features=64,
keep_prob=1.0,
use_batch_norm=True,
activation='relu',
is_training=True,
init='he',
depth=4,
name='unet_original'):
"""Reference implementation of the original U-net.
https://arxiv.org/abs/1505.04597
"""
assert depth >= 1
def get_weight_bias(nin, nout, transpose, size):
if transpose:
shape = [size] * ndim + [nout, nin]
else:
shape = [size] * ndim + [nin, nout]
b_shape = [1] * (1 + ndim) + [nout]
if init == 'xavier':
stddev = np.sqrt(2.6 / (size ** ndim * (nin + nout)))
elif init == 'he':
stddev = np.sqrt(2.6 / (size ** ndim * nin))
w = tf.Variable(tf.truncated_normal(shape, stddev=stddev))
b = tf.Variable(tf.constant(0.0, shape=b_shape))
return w, b
def apply_activation(x):
if activation == 'relu':
return tf.nn.relu(x)
elif activation == 'elu':
return tf.nn.elu(x)
elif activation == 'leaky_relu':
return leaky_relu(x)
elif activation == 'prelu':
return prelu(x)
elif activation == 'softplus':
return tf.nn.softplus(x)
else:
raise RuntimeError('unknown activation')
def apply_conv(x, nout,
stride=False,
size=3,
disable_batch_norm=False,
disable_dropout=False,
disable_activation=False):
if stride:
if ndim == 1:
stride = 2
elif ndim == 2:
stride = (2, 2)
else:
if ndim == 1:
stride = 1
elif ndim == 2:
stride = (1, 1)
with tf.name_scope('apply_conv'):
nin = int(x.get_shape()[-1])
w, b = get_weight_bias(nin, nout, transpose=False, size=size)
if ndim == 1:
out = conv1d(x, w, stride=stride) + b
elif ndim == 2:
out = conv2d(x, w, stride=stride) + b
if use_batch_norm and not disable_batch_norm:
out = tf.contrib.layers.batch_norm(out,
is_training=is_training)
if keep_prob != 1.0 and not disable_dropout:
out = tf.contrib.layers.dropout(out, keep_prob=keep_prob,
is_training=is_training)
if not disable_activation:
out = apply_activation(out)
return out
def apply_convtransp(x, nout,
stride=True, out_shape=None,
size=2,
disable_batch_norm=False,
disable_dropout=False,
disable_activation=False):
if stride:
if ndim == 1:
stride = 2
elif ndim == 2:
stride = (2, 2)
else:
if ndim == 1:
stride = 1
elif ndim == 2:
stride = (1, 1)
with tf.name_scope('apply_convtransp'):
nin = int(x.get_shape()[-1])
w, b = get_weight_bias(nin, nout, transpose=True, size=size)
if ndim == 1:
out = conv1dtransp(x, w, stride=stride, out_shape=out_shape) + b
elif ndim == 2:
out = conv2dtransp(x, w, stride=stride, out_shape=out_shape) + b
if use_batch_norm and not disable_batch_norm:
out = tf.contrib.layers.batch_norm(out,
is_training=is_training)
if keep_prob != 1.0 and not disable_dropout:
out = tf.contrib.layers.dropout(out, keep_prob=keep_prob,
is_training=is_training)
if not disable_activation:
out = apply_activation(out)
return out
def apply_maxpool(x):
if ndim == 1:
return maxpool1d(x)
else:
return maxpool2d(x)
finals = []
with tf.name_scope('{}_call'.format(name)):
with tf.name_scope('in'):
current = apply_conv(x, features)
current = apply_conv(current, features)
finals.append(current)
for layer in range(depth - 1):
with tf.name_scope('down_{}'.format(layer + 1)):
features_layer = 2 ** (layer + 1)
current = apply_maxpool(current)
current = apply_conv(current, features_layer)
current = apply_conv(current, features_layer)
finals.append(current)
with tf.name_scope('coarse'):
current = apply_maxpool(current)
current = apply_conv(current, features * 2 ** depth)
current = apply_conv(current, features * 2 ** depth)
for layer in reversed(range(depth - 1)):
with tf.name_scope('up_{}'.format(layer + 1)):
features_layer = 2 ** (layer + 1)
skip = finals.pop()
current = apply_convtransp(current, features_layer,
out_shape=tf.shape(skip),
disable_activation=True)
current = tf.concat([current, skip], axis=-1)
current = apply_conv(current, features_layer)
current = apply_conv(current, features_layer)
with tf.name_scope('out'):
skip = finals.pop()
current = apply_convtransp(current, features,
out_shape=tf.shape(skip),
disable_activation=True)
current = tf.concat([current, skip], axis=-1)
current = apply_conv(current, features)
current = apply_conv(current, features)
current = apply_conv(current, nout,
size=1,
disable_activation=True,
disable_batch_norm=True,
disable_dropout=True)
return current
def residual_unet(x, nout,
ndim=2,
features=64,
keep_prob=1.0,
use_batch_norm=True,
activation='relu',
is_training=True,
init='he',
name='unet_residual'):
def get_weight_bias(nin, nout, transpose, size):
if transpose:
shape = [size] * ndim + [nout, nin]
else:
shape = [size] * ndim + [nin, nout]
b_shape = [1] * (1 + ndim) + [nout]
if init == 'xavier':
stddev = np.sqrt(2.6 / (size ** ndim * (nin + nout)))
elif init == 'he':
stddev = np.sqrt(2.6 / (size ** ndim * nin))
w = tf.Variable(tf.truncated_normal(shape, stddev=stddev))
b = tf.Variable(tf.constant(0.0, shape=b_shape))
return w, b
def apply_activation(x):
if activation == 'relu':
return tf.nn.relu(x)
elif activation == 'elu':
return tf.nn.elu(x)
elif activation == 'leaky_relu':
return leaky_relu(x)
elif activation == 'prelu':
return prelu(x)
else:
raise RuntimeError('unknown activation')
def apply_conv(x, nout,
stride=False,
size=3,
disable_batch_norm=False,
disable_dropout=False,
disable_activation=False):
if stride:
if ndim == 1:
stride = 2
elif ndim == 2:
stride = (2, 2)
else:
if ndim == 1:
stride = 1
elif ndim == 2:
stride = (1, 1)
with tf.name_scope('apply_conv'):
nin = int(x.get_shape()[-1])
w, b = get_weight_bias(nin, nout, transpose=False, size=size)
if ndim == 1:
out = conv1d(x, w, stride=stride) + b
elif ndim == 2:
out = conv2d(x, w, stride=stride) + b
if use_batch_norm and not disable_batch_norm:
out = tf.contrib.layers.batch_norm(out,
is_training=is_training)
if keep_prob != 1.0 and not disable_dropout:
out = tf.contrib.layers.dropout(out, keep_prob=keep_prob,
is_training=is_training)
if not disable_activation:
out = apply_activation(out)
return out
def apply_convtransp(x, nout,
stride=True, out_shape=None,
size=2,
disable_batch_norm=False,
disable_dropout=False,
disable_activation=False):
if stride:
if ndim == 1:
stride = 2
elif ndim == 2:
stride = (2, 2)
else:
if ndim == 1:
stride = 1
elif ndim == 2:
stride = (1, 1)
with tf.name_scope('apply_convtransp'):
nin = int(x.get_shape()[-1])
w, b = get_weight_bias(nin, nout, transpose=True, size=size)
if ndim == 1:
out = conv1dtransp(x, w, stride=stride, out_shape=out_shape) + b
elif ndim == 2:
out = conv2dtransp(x, w, stride=stride, out_shape=out_shape) + b
if use_batch_norm and not disable_batch_norm:
out = tf.contrib.layers.batch_norm(out,
is_training=is_training)
if keep_prob != 1.0 and not disable_dropout:
out = tf.contrib.layers.dropout(out, keep_prob=keep_prob,
is_training=is_training)
if not disable_activation:
out = apply_activation(out)
return out
def apply_maxpool(x):
if ndim == 1:
return maxpool1d(x)
else:
return maxpool2d(x)
def residual_unit(x, features):
with tf.name_scope('residual_unit'):
nout = int(x.get_shape()[-1])
dx = apply_conv(x, features)
dx = apply_conv(dx, nout,
size=1,
disable_activation=True)
return x + dx
residual_down = False
conv_down = False
finals = []
with tf.name_scope('{}_call'.format(name)):
with tf.name_scope('in'):
current = apply_conv(x, features, size=7)
if residual_down:
current = residual_unit(current, features)
elif conv_down:
current = apply_conv(current, features,
size=1,
disable_activation=True)
finals.append(current)
with tf.name_scope('down_1'):
current = apply_maxpool(current)
if residual_down:
for i in range(2):
current = residual_unit(current, features)
elif conv_down:
current = apply_conv(current, features,
size=1,
disable_activation=True)
finals.append(current)
with tf.name_scope('down_2'):
current = apply_maxpool(current)
if residual_down:
for i in range(4):
current = residual_unit(current, features)
elif conv_down:
current = apply_conv(current, features,
size=1,
disable_activation=True)
finals.append(current)
with tf.name_scope('down_3'):
current = apply_maxpool(current)
if residual_down:
for i in range(8):
current = residual_unit(current, features)
elif conv_down:
current = apply_conv(current, features,
size=1,
disable_activation=True)
finals.append(current)
with tf.name_scope('coarse'):
current = apply_maxpool(current)
for i in range(16):
current = residual_unit(current, features)
with tf.name_scope('up_3'):
skip = finals.pop()
current = apply_convtransp(current, features, out_shape=tf.shape(skip),
disable_activation=True)
current = tf.concat([current, skip], axis=-1)
for i in range(8):
current = residual_unit(current, features)
with tf.name_scope('up_2'):
skip = finals.pop()
current = apply_convtransp(current, features, out_shape=tf.shape(skip),
disable_activation=True)
current = current + skip
for i in range(4):
current = residual_unit(current, features)
with tf.name_scope('up_1'):
skip = finals.pop()
current = apply_convtransp(current, features, out_shape=tf.shape(skip),
disable_activation=True)
current = current + skip
for i in range(2):
current = residual_unit(current, features)
with tf.name_scope('out'):
skip = finals.pop()
current = apply_convtransp(current, features, out_shape=tf.shape(skip),
disable_activation=True)
current = current + skip
current = residual_unit(current, features)
current = apply_conv(current, nout,
size=1,
disable_activation=True,
disable_batch_norm=True,
disable_dropout=True)
return current
| 35.587464 | 132 | 0.476263 | 2,643 | 24,413 | 4.218691 | 0.054484 | 0.019372 | 0.032287 | 0.04843 | 0.834798 | 0.806278 | 0.781435 | 0.761166 | 0.729596 | 0.703857 | 0 | 0.018145 | 0.426617 | 24,413 | 685 | 133 | 35.639416 | 0.778397 | 0.011633 | 0 | 0.757463 | 0 | 0 | 0.020866 | 0 | 0 | 0 | 0 | 0 | 0.001866 | 1 | 0.037313 | false | 0 | 0.011194 | 0.001866 | 0.110075 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
dcf10ff1dcbc743d67dce59f5ea10f87a74fbf0b | 10,191 | py | Python | experiments/04-speaker-recognition/Speaker_Verification_Code/datasets.py | TongtongSong/speech_experiments | 8f69766d7c262c62dd4d36696a46b64c58570eda | [
"Apache-2.0"
] | 2 | 2022-02-10T02:00:58.000Z | 2022-02-10T02:01:19.000Z | experiments/04-speaker-recognition/Speaker_Verification_Code/datasets.py | YuTian-coder/speech_experiments | 8f69766d7c262c62dd4d36696a46b64c58570eda | [
"Apache-2.0"
] | null | null | null | experiments/04-speaker-recognition/Speaker_Verification_Code/datasets.py | YuTian-coder/speech_experiments | 8f69766d7c262c62dd4d36696a46b64c58570eda | [
"Apache-2.0"
] | 2 | 2021-12-27T13:45:30.000Z | 2021-12-28T01:22:25.000Z | from random import sample
import soundfile as sf
from python_speech_features import mfcc, fbank, logfbank, delta
from librosa import stft, magphase
from torch.utils.data import Dataset
import torch
import random
import numpy as np
import os
# from torch.utils.data import DataLoader
class SpkTrainDataset(Dataset):
def __init__(self, opts):
self.opts = opts
self.TRAIN_MANIFEAT = opts["train_manifest"]
self.feat_type = opts['feat_type']
self.root = opts['root']
self.rate = opts['rate']
self.data_feat, self.data_label, self.speaker_dict = self._load_dataset()
self.count = len(self.data_feat)
def _load_dataset(self):
with open(self.TRAIN_MANIFEAT, 'r') as f:
all_data = f.read()
all_data = all_data.split('\n')
data_feat = []
data_label = []
speaker_dict = {}
speaker_id = 0
for data in all_data:
if data == '':
continue
speaker, path = data.split(' ')[0], data.split(' ')[1]
if speaker not in speaker_dict.keys():
speaker_dict[speaker] = speaker_id
speaker_id += 1
data_label.append(speaker_dict[speaker])
source_feat, _ = self._load_audio(os.path.join(self.root, path))
if source_feat[0] == None:
print('a')
feat = self._extract_feature(source_feat)
feat = feat.astype(np.float32)
feat = np.array(feat)
feat = self._fix_length(feat)
data_feat.append(feat)
data_feat = np.array(data_feat)
data_label = np.array(data_label)
return data_feat, data_label, speaker_dict
def _fix_length(self, feat):
out_feat = feat
while out_feat.shape[0] < self.opts['max_length']:
out_feat = np.concatenate((out_feat, feat), axis=0)
feat_len = out_feat.shape[0]
start = random.randint(a=0, b=feat_len-self.opts['max_length'])
end = start + self.opts['max_length']
out_feat = out_feat[start:end, :]
return out_feat
def _load_audio(self, path):
y, sr = sf.read(path)
return y, sr
def _normalize(self, feat):
return (feat - feat.mean(axis = 0)) / (feat.std(axis = 0) + 2e-12)
def _delta(self, feat, order = 2):
if order == 2:
feat_d1 = delta(feat, N = 1)
feat_d2 = delta(feat, N = 2)
feat = np.hstack([feat, feat_d1, feat_d2])
elif order == 1:
feat_d1 = delta(feat, N = 1)
feat = np.hstack([feat, feat_d1])
return feat
def _extract_feature(self, data):
if self.feat_type == 'mfcc':
feat = mfcc(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], numcep = self.opts['num_cep'])
elif self.feat_type == 'fbank':
feat, _ = fbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin'])
elif self.feat_type == 'logfbank':
feat = logfbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin'])
elif self.feat_type == 'stft':
feat = stft(data, n_fft = self.opts['n_fft'], hop_length = int(self.rate * self.opts['win_shift']), win_length = int(self.rate * self.opts['win_len']))
feat, _ = magphase(feat)
feat = np.log1p(feat)
feat = feat.transpose(1,0)
else:
raise NotImplementedError("Other features are not implemented!")
if self.opts['normalize']:
feat = self._normalize(feat)
if self.opts['delta']:
feat = self._delta(feat, order = 2)
return feat
def collate_fn(self, batch):
feats = []
labels = []
for id in batch:
feat = self.data_feat[id]
label = self.data_label[id]
feats.append(feat)
labels.append(label)
feats = np.array(feats).astype(np.float32)
labels = np.array(labels).astype(np.int64)
return torch.from_numpy(feats).transpose_(1, 2), torch.from_numpy(labels)
# def collate_fn(self, batch):
# frame = random.randint(self.lower_frame_num, self.higher_frame_num) # random select a frame number in uniform distribution
# duration = (frame - 1) * self.opts['win_shift'] + self.opts['win_len'] # duration in time of one training speech segment
# samples_num = int(duration * self.rate) # duration in sample point of one training speech segment
# feats = []
# for sid in batch:
# speaker = self.dataset[sid]
# y = []
# n_samples = 0
# while n_samples < samples_num:
# aid = random.randrange(0, len(speaker))
# audio = speaker[aid]
# t, sr = audio[1], audio[2]
# samples_len = int(t * sr)
# start = int(random.uniform(0, t) * sr) # random select start point of speech
# _y, _ = self._load_audio(audio[0], start = start, stop = samples_len) # read speech data from start point to the end
# if _y is not None:
# y.append(_y)
# n_samples += len(_y)
# y = np.hstack(y)[:samples_num]
# feat = self._extract_feature(y)
# feats.append(feat)
# feats = np.array(feats).astype(np.float32)
# labels = np.array(batch).astype(np.int64)
# return torch.from_numpy(feats).transpose_(1, 2), torch.from_numpy(labels)
def __len__(self):
return self.count
def __getitem__(self, idx):
idx = idx % self.count
return idx
class SpkTestDataset(Dataset):
def __init__(self, opts):
self.opts = opts
self.TEST_MANIFEAT = opts["test_manifest"]
self.feat_type = opts['feat_type']
self.root = opts['root']
self.rate = opts['rate']
self.data_feat, self.data_label, self.speaker_dict = self._load_dataset()
self.count = len(self.data_feat)
def _load_dataset(self):
with open(self.TEST_MANIFEAT, 'r') as f:
all_data = f.read()
all_data = all_data.split('\n')
data_feat = []
data_label = []
speaker_dict = {}
speaker_id = 0
for data in all_data:
if data == '':
continue
speaker, path = data.split(' ')[0], data.split(' ')[1]
if speaker not in speaker_dict.keys():
speaker_dict[speaker] = speaker_id
speaker_id += 1
data_label.append(path)
source_feat, _ = self._load_audio(os.path.join(self.root, path))
if source_feat[0] == None:
print('a')
feat = self._extract_feature(source_feat)
feat = feat.astype(np.float32)
feat = np.array(feat)
feat = self._fix_length(feat)
data_feat.append(feat)
data_feat = np.array(data_feat)
data_label = np.array(data_label)
return data_feat, data_label, speaker_dict
def _fix_length(self, feat):
out_feat = feat
while out_feat.shape[0] < self.opts['max_length']:
out_feat = np.concatenate((out_feat, feat), axis=0)
feat_len = out_feat.shape[0]
start = random.randint(a=0, b=feat_len-self.opts['max_length'])
end = start + self.opts['max_length']
out_feat = out_feat[start:end, :]
return out_feat
def _load_audio(self, path):
y, sr = sf.read(path)
return y, sr
def _normalize(self, feat):
return (feat - feat.mean(axis = 0)) / (feat.std(axis = 0) + 2e-12)
def _delta(self, feat, order = 2):
if order == 2:
feat_d1 = delta(feat, N = 1)
feat_d2 = delta(feat, N = 2)
feat = np.hstack([feat, feat_d1, feat_d2])
elif order == 1:
feat_d1 = delta(feat, N = 1)
feat = np.hstack([feat, feat_d1])
return feat
def _extract_feature(self, data):
if self.feat_type == 'mfcc':
feat = mfcc(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], numcep = self.opts['num_cep'])
elif self.feat_type == 'fbank':
feat, _ = fbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin'])
elif self.feat_type == 'logfbank':
feat = logfbank(data, self.rate, winlen = self.opts['win_len'], winstep = self.opts['win_shift'], nfilt = self.opts['num_bin'])
elif self.feat_type == 'stft':
feat = stft(data, n_fft = self.opts['n_fft'], hop_length = int(self.rate * self.opts['win_shift']), win_length = int(self.rate * self.opts['win_len']))
feat, _ = magphase(feat)
feat = np.log1p(feat)
feat = feat.transpose(1,0)
else:
raise NotImplementedError("Other features are not implemented!")
if self.opts['normalize']:
feat = self._normalize(feat)
if self.opts['delta']:
feat = self._delta(feat, order = 2)
return feat
def collate_fn(self, batch):
feats = []
labels = []
for id in batch:
feat = self.data_feat[id]
label = self.data_label[id]
feats.append(feat)
labels.append(label)
feats = np.array(feats).astype(np.float32)
labels = np.array(labels)
return torch.from_numpy(feats).transpose_(1, 2), labels
def __len__(self):
return self.count
def __getitem__(self, idx):
idx = idx % self.count
return idx
# import yaml
# f = open('config.yaml', 'r')
# opts = yaml.load(f)['data']
# f.close()
# trainset = SpkTrainDataset(opts)
# train_loader = DataLoader(trainset, batch_size = 128, shuffle = True, collate_fn = trainset.collate_fn)
# for feat, label in enumerate(train_loader):
# pass | 36.526882 | 163 | 0.568345 | 1,320 | 10,191 | 4.192424 | 0.124242 | 0.057824 | 0.035779 | 0.022768 | 0.806288 | 0.784966 | 0.784966 | 0.784966 | 0.77846 | 0.764727 | 0 | 0.01273 | 0.306251 | 10,191 | 279 | 164 | 36.526882 | 0.770014 | 0.155922 | 0 | 0.893401 | 0 | 0 | 0.052902 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.101523 | false | 0 | 0.045685 | 0.020305 | 0.248731 | 0.010152 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
3713c83004baaa0d61413fe5f5c5205589060bd7 | 2,498 | py | Python | searching/tree/advance_views.py | EashanKaushik/Data-Structures | e5bd391e029cb47e650d5665647ff57590b9b343 | [
"MIT"
] | null | null | null | searching/tree/advance_views.py | EashanKaushik/Data-Structures | e5bd391e029cb47e650d5665647ff57590b9b343 | [
"MIT"
] | null | null | null | searching/tree/advance_views.py | EashanKaushik/Data-Structures | e5bd391e029cb47e650d5665647ff57590b9b343 | [
"MIT"
] | null | null | null | from node import make_tree
def left_view(root, value):
queue = list()
queue.append(root)
size = len(queue)
while len(queue) > 0:
curr_node = queue.pop(0)
size -= 1
if curr_node.right:
queue.append(curr_node.right)
if curr_node.left:
queue.append(curr_node.left)
if size == 0:
if curr_node.data == value:
return True
size = len(queue)
def right_view(root, value):
queue = list()
queue.append(root)
size = len(queue)
while len(queue) > 0:
curr_node = queue.pop(0)
size-= 1
if curr_node.left:
queue.append(curr_node.left)
if curr_node.right:
queue.append(curr_node.right)
if size == 0:
if curr_node.data == value:
return True
size = len(queue)
def top_view(root, value):
queue = list()
vertical_node_value = dict()
queue.append(root)
queue.append(0)
while len(queue) > 0:
curr_node = queue.pop(0)
curr_val = queue.pop(0)
if curr_node.left:
queue.append(curr_node.left)
queue.append(curr_val - 1)
if curr_node.right:
queue.append(curr_node.right)
queue.append(curr_val + 1)
if curr_val not in vertical_node_value:
if curr_node.data == value:
return True
vertical_node_value[curr_val] = curr_node.data
# for node in sorted(vertical_node_value):
# print(vertical_node_value[node])
def buttom_view(root, value):
queue = list()
vertical_node_value = dict()
queue.append(root)
queue.append(0)
while len(queue) > 0:
curr_node = queue.pop(0)
curr_val = queue.pop(0)
if curr_node.left:
queue.append(curr_node.left)
queue.append(curr_val - 1)
if curr_node.right:
queue.append(curr_node.right)
queue.append(curr_val + 1)
if curr_val not in vertical_node_value:
vertical_node_value[curr_val] = curr_node.data
elif curr_val in vertical_node_value:
if value == curr_node.data:
return True
vertical_node_value[curr_val] = curr_node.data
# for value in sorted(vertical_node_value):
# print(vertical_node_value[value])
if __name__ == '__main__':
root = make_tree()
print(buttom_view(root, 4))
| 21.912281 | 58 | 0.571657 | 329 | 2,498 | 4.103343 | 0.118541 | 0.16 | 0.133333 | 0.112593 | 0.900741 | 0.885185 | 0.885185 | 0.871111 | 0.844444 | 0.774815 | 0 | 0.01259 | 0.332266 | 2,498 | 113 | 59 | 22.106195 | 0.796763 | 0.06285 | 0 | 0.861111 | 0 | 0 | 0.003425 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.055556 | false | 0 | 0.013889 | 0 | 0.125 | 0.013889 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
2eb4b02180ec9a772f6fd5971b846dd028dfc2b8 | 13,800 | py | Python | testwithBoundaryDetection.py | JHMeusener/detectron2-ResNeSt | 6abab6fb9496a528f6aa2d4e1e27f3e7ceb42685 | [
"Apache-2.0"
] | null | null | null | testwithBoundaryDetection.py | JHMeusener/detectron2-ResNeSt | 6abab6fb9496a528f6aa2d4e1e27f3e7ceb42685 | [
"Apache-2.0"
] | null | null | null | testwithBoundaryDetection.py | JHMeusener/detectron2-ResNeSt | 6abab6fb9496a528f6aa2d4e1e27f3e7ceb42685 | [
"Apache-2.0"
] | null | null | null | from detectron2.structures import BoxMode
# Some basic setup:
# Setup detectron2 logger
import detectron2
# import some common libraries
import numpy as np
import os, json, cv2, random
# import some common detectron2 utilities
from detectron2 import model_zoo
from detectron2.engine import DefaultPredictor
from detectron2.config import get_cfg
from detectron2.utils.visualizer import Visualizer
from detectron2.data import MetadataCatalog, DatasetCatalog
from detectron2.data.datasets import register_coco_instances
from detectron2.data import MetadataCatalog, DatasetCatalog
from detectron2.data.datasets import load_coco_json
from detectron2.config import get_cfg
from detectron2.engine import DefaultTrainer
from detectron2.data import DatasetMapper
from PIL import Image
import yaml
from utils import utils as utls
from models.cobnet import CobNet
from utils.loss import BalancedBCE
import math
import copy
import logging
import numpy as np
from typing import List, Optional, Union
import torch
from detectron2.config import configurable
from detectron2.data import build_detection_train_loader,build_detection_test_loader
from detectron2.data import detection_utils as utils
from detectron2.data import transforms as T
import logging
import numpy as np
from typing import Optional, Tuple
import torch
from torch import nn
from detectron2.config import configurable
from detectron2.structures import ImageList
from detectron2.utils.events import get_event_storage
from detectron2.utils.logger import log_first_n
from detectron2.modeling.backbone import Backbone, build_backbone
from detectron2.modeling.postprocessing import detector_postprocess
from detectron2.modeling.proposal_generator import build_proposal_generator
from detectron2.modeling.roi_heads import build_roi_heads
from detectron2.modeling.meta_arch.build import META_ARCH_REGISTRY
from detectron2.modeling.meta_arch import GeneralizedRCNN, ProposalNetwork
import importlib
from detectron2.layers import ShapeSpec
import sys
import time
from evaluation_directEdge import RGBDTrainer, mask2target,DepthMapper,DepthRCNN,MultiLoss,EdgeImportanceLoss,_toMask,JointDepthEvaluator,DepthJointRCNN
from scipy import ndimage as ndi
import torch
import torch.nn.functional as F
import torch.nn as nn
from torch.nn.modules.loss import _Loss
from detectron2.evaluation import COCOEvaluator, inference_on_dataset
from detectron2.data.datasets.coco import convert_to_coco_json
from detectron2.data import build_detection_test_loader
from detectron2.evaluation.coco_evaluation import instances_to_coco_json
from pycocotools import mask as maskUtils
from pycocotools.coco import COCO
from detectron2.structures import BitMasks, PolygonMasks
import scipy
import matplotlib.pyplot as plt
validationJsonPath = "/files/Dataset/train.json"
trainingJsonPath = "/files/Dataset/validation.json"
datasetPath = "/files/Dataset/datasetPics/"
register_coco_instances("my_dataset_train", {},validationJsonPath , datasetPath)
register_coco_instances("my_dataset_val", {}, trainingJsonPath, datasetPath)
'''
cfg = get_cfg()
cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml")
cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN"
cfg.DATASETS.TRAIN = ("my_dataset_train",)
cfg.DATASETS.TEST = ("my_dataset_val",)
cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth"
cfg.DATALOADER.NUM_WORKERS = 2
cfg.SOLVER.IMS_PER_BATCH = 1
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets)
cfg.MODEL.BACKBONE.FREEZE_AT = 0
cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1
cfg.MODEL.RETINANET.NUM_CLASSES = 1
cfg.MODEL.RESNETS.NORM = "noNorm"#"BN"
cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128
cfg.TEST.EVAL_PERIOD = 1
cfg.TEST.PRECISE_BN.ENABLED = False
folder = "2020_11_24_small_Joint"
cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder
cfg.SEED = 42
#cfg.INPUT.CROP.ENABLED = False
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
cfg.SOLVER.CHECKPOINT_PERIOD = 25000
cfg.SOLVER.MAX_ITER = 2
cfg.SOLVER.BASE_LR = 0.008
cfg.SOLVER.STEPS = (75000,)
cfg.TEST.DETECTIONS_PER_IMAGE = 250
cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005
trainer = RGBDTrainer(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
del trainer
torch.cuda.empty_cache()
##################################################################################
cfg = get_cfg()
cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml")
cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN"
cfg.DATASETS.TRAIN = ("my_dataset_train",)
cfg.DATASETS.TEST = ("my_dataset_val",)
cfg.MODEL.WEIGHTS = ""
cfg.DATALOADER.NUM_WORKERS = 2
cfg.SOLVER.IMS_PER_BATCH = 1
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets)
cfg.MODEL.BACKBONE.FREEZE_AT = 0
cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1
cfg.MODEL.RETINANET.NUM_CLASSES = 1
cfg.MODEL.RESNETS.NORM = "noNorm"#"BN"
cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128
cfg.TEST.EVAL_PERIOD = 1
cfg.TEST.PRECISE_BN.ENABLED = False
folder = "2020_11_24_small_Joint_noInit"
cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder
cfg.SEED = 42
#cfg.INPUT.CROP.ENABLED = False
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
cfg.SOLVER.CHECKPOINT_PERIOD = 25000
cfg.SOLVER.BASE_LR = 0.008
cfg.SOLVER.STEPS = (75000,)
cfg.TEST.DETECTIONS_PER_IMAGE = 250
cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005
cfg.SOLVER.MAX_ITER = 2
trainer = RGBDTrainer(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
del trainer
torch.cuda.empty_cache()
##################################################################################
cfg = get_cfg()
cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml")
cfg.MODEL.META_ARCHITECTURE = "OnlyRCNN"
cfg.DATASETS.TRAIN = ("my_dataset_train",)
cfg.DATASETS.TEST = ("my_dataset_val",)
cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth"
cfg.DATALOADER.NUM_WORKERS = 2
cfg.SOLVER.IMS_PER_BATCH = 1
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets)
cfg.MODEL.BACKBONE.FREEZE_AT = 0
cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1
cfg.MODEL.RETINANET.NUM_CLASSES = 1
cfg.MODEL.RESNETS.NORM = "noNorm"#"BN"
cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128
cfg.TEST.EVAL_PERIOD = 1
cfg.TEST.PRECISE_BN.ENABLED = False
folder = "2020_11_24_small_RCNN"
cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder
cfg.SEED = 42
#cfg.INPUT.CROP.ENABLED = False
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
cfg.SOLVER.CHECKPOINT_PERIOD = 25000
cfg.SOLVER.BASE_LR = 0.008
cfg.SOLVER.STEPS = (75000,)
cfg.TEST.DETECTIONS_PER_IMAGE = 250
cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005
cfg.SOLVER.MAX_ITER = 2
trainer = RGBDTrainer(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
del trainer
torch.cuda.empty_cache()
##################################################################################'''
cfg = get_cfg()
cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml")
cfg.MODEL.META_ARCHITECTURE = "OnlyEdges"
cfg.DATASETS.TRAIN = ("my_dataset_train",)
cfg.DATASETS.TEST = ("my_dataset_val",)
cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth"
cfg.DATALOADER.NUM_WORKERS = 3
cfg.SOLVER.IMS_PER_BATCH = 1
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets)
cfg.MODEL.BACKBONE.FREEZE_AT = 0
cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1
cfg.MODEL.RETINANET.NUM_CLASSES = 1
cfg.MODEL.RESNETS.NORM = "noNorm"#"BN"
cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128
cfg.TEST.EVAL_PERIOD = 1
cfg.TEST.PRECISE_BN.ENABLED = False
folder = "2020_11_24_small_Edges"
cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder
cfg.SEED = 42
#cfg.INPUT.CROP.ENABLED = False
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
cfg.SOLVER.CHECKPOINT_PERIOD = 25000
cfg.SOLVER.BASE_LR = 0.008
cfg.SOLVER.STEPS = (75000,)
cfg.TEST.DETECTIONS_PER_IMAGE = 250
cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005
cfg.SOLVER.MAX_ITER = 2
trainer = RGBDTrainer(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
del trainer
torch.cuda.empty_cache()
##################################################################################
cfg = get_cfg()
cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml")
cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN"
cfg.DATASETS.TRAIN = ("my_dataset_train",)
cfg.DATASETS.TEST = ("my_dataset_val",)
cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth"
cfg.DATALOADER.NUM_WORKERS = 2
cfg.SOLVER.IMS_PER_BATCH = 1
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets)
cfg.MODEL.BACKBONE.FREEZE_AT = 0
cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1
cfg.MODEL.RETINANET.NUM_CLASSES = 1
cfg.MODEL.RESNETS.NORM = "noNorm"#"BN"
cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128
cfg.TEST.EVAL_PERIOD = 1
cfg.TEST.PRECISE_BN.ENABLED = False
folder = "2020_11_24_small_joint_onlyRGB"
cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder
cfg.SEED = 42
#cfg.INPUT.CROP.ENABLED = False
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
cfg.SOLVER.CHECKPOINT_PERIOD = 25000
cfg.SOLVER.BASE_LR = 0.008
cfg.SOLVER.STEPS = (75000,)
cfg.TEST.DETECTIONS_PER_IMAGE = 250
cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005
cfg.SOLVER.MAX_ITER = 2
trainer = RGBDTrainer(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
del trainer
torch.cuda.empty_cache()
##################################################################################
cfg = get_cfg()
cfg.merge_from_file("/files/Code/detectron2-ResNeSt/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x.yaml")
cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN"
cfg.DATASETS.TRAIN = ("my_dataset_train",)
cfg.DATASETS.TEST = ("my_dataset_val",)
cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/mask_cascade_rcnn_ResNeSt_50_FPN_syncBN_1x-c58bd325.pth"
cfg.DATALOADER.NUM_WORKERS = 2
cfg.SOLVER.IMS_PER_BATCH = 1
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets)
cfg.MODEL.BACKBONE.FREEZE_AT = 0
cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1
cfg.MODEL.RETINANET.NUM_CLASSES = 1
cfg.MODEL.RESNETS.NORM = "noNorm"#"BN"
cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128
cfg.TEST.EVAL_PERIOD = 1
cfg.TEST.PRECISE_BN.ENABLED = False
folder = "2020_11_24_small_joint_onlyDepth"
cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder
cfg.SEED = 42
#cfg.INPUT.CROP.ENABLED = False
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
cfg.SOLVER.CHECKPOINT_PERIOD = 25000
cfg.SOLVER.BASE_LR = 0.008
cfg.SOLVER.STEPS = (75000,)
cfg.TEST.DETECTIONS_PER_IMAGE = 250
cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005
cfg.SOLVER.MAX_ITER = 2
trainer = RGBDTrainerDeleteRGB(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
del trainer
torch.cuda.empty_cache()
##################################################################################
cfg = get_cfg()
cfg.merge_from_file("/files/Code/detectronResNest/configs/COCO-InstanceSegmentation/mask_cascade_rcnn_ResNeSt_101_FPN_syncBN_1x.yaml")
cfg.MODEL.META_ARCHITECTURE = "DepthJointRCNN"
cfg.DATASETS.TRAIN = ("my_dataset_train",)
cfg.DATASETS.TEST = ("my_dataset_val",)
cfg.MODEL.WEIGHTS = "/files/Code/detectronResNestWeights/faster_cascade_rcnn_ResNeSt_101_FPN_syncbn_range-scale_1x-3627ef78.pth"
cfg.DATALOADER.NUM_WORKERS = 2
cfg.SOLVER.IMS_PER_BATCH = 1
cfg.MODEL.ROI_HEADS.BATCH_SIZE_PER_IMAGE = 256 # faster, and good enough for this toy dataset (default: 512)
cfg.MODEL.ROI_HEADS.NUM_CLASSES = 1 # only has one class (ballon). (see https://detectron2.readthedocs.io/tutorials/datasets.html#update-the-config-for-new-datasets)
cfg.MODEL.BACKBONE.FREEZE_AT = 0
cfg.MODEL.SEM_SEG_HEAD.NUM_CLASSES = 1
cfg.MODEL.RETINANET.NUM_CLASSES = 1
cfg.MODEL.RESNETS.NORM = "noNorm"#"BN"
cfg.MODEL.RESNETS.STEM_OUT_CHANNELS = 128
cfg.TEST.EVAL_PERIOD = 1
cfg.TEST.PRECISE_BN.ENABLED = False
folder = "2020_11_24_big_Joint"
cfg.OUTPUT_DIR = "/files/Code/experiments/" +folder
cfg.SEED = 42
#cfg.INPUT.CROP.ENABLED = False
os.makedirs(cfg.OUTPUT_DIR, exist_ok=True)
cfg.SOLVER.CHECKPOINT_PERIOD = 25000
cfg.SOLVER.BASE_LR = 0.008
cfg.SOLVER.STEPS = (75000,)
cfg.TEST.DETECTIONS_PER_IMAGE = 250
cfg.MODEL.EDGE_SEGMENT_BASE_LR = 0.005
cfg.SOLVER.MAX_ITER = 2
trainer = RGBDTrainer(cfg)
trainer.resume_or_load(resume=False)
trainer.train()
del trainer
torch.cuda.empty_cache()
| 40.949555 | 166 | 0.782246 | 2,046 | 13,800 | 5.053275 | 0.123656 | 0.054164 | 0.01828 | 0.021666 | 0.806751 | 0.794371 | 0.779186 | 0.764 | 0.755102 | 0.746591 | 0 | 0.036114 | 0.081014 | 13,800 | 336 | 167 | 41.071429 | 0.779136 | 0.072029 | 0 | 0.675127 | 0 | 0 | 0.167483 | 0.136701 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.324873 | 0 | 0.324873 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 7 |
25936836e30bbff7824ed9ef71b04e355c0a63ab | 374 | py | Python | python/testData/inspections/PyCompatibilityInspection/conditionalExpression.py | teddywest32/intellij-community | e0268d7a1da1d318b441001448cdd3e8929b2f29 | [
"Apache-2.0"
] | null | null | null | python/testData/inspections/PyCompatibilityInspection/conditionalExpression.py | teddywest32/intellij-community | e0268d7a1da1d318b441001448cdd3e8929b2f29 | [
"Apache-2.0"
] | 11 | 2017-02-27T22:35:32.000Z | 2021-12-24T08:07:40.000Z | python/testData/inspections/PyCompatibilityInspection/conditionalExpression.py | teddywest32/intellij-community | e0268d7a1da1d318b441001448cdd3e8929b2f29 | [
"Apache-2.0"
] | 1 | 2020-11-27T10:36:50.000Z | 2020-11-27T10:36:50.000Z | # PY-4293
def test_conditional_expression(val):
x = <warning descr="Python version 2.4 doesn't support this syntax.">'Yes' if val else 'No'</warning>
return <warning descr="Python version 2.4 doesn't support this syntax.">'Yes' if val else 'No'</warning>
def f(arg):
pass
f(<warning descr="Python version 2.4 doesn't support this syntax.">1 if True else 2</warning>) | 41.555556 | 106 | 0.719251 | 65 | 374 | 4.107692 | 0.446154 | 0.134831 | 0.202247 | 0.280899 | 0.719101 | 0.719101 | 0.719101 | 0.719101 | 0.719101 | 0.719101 | 0 | 0.037383 | 0.141711 | 374 | 9 | 107 | 41.555556 | 0.794393 | 0.018717 | 0 | 0 | 0 | 0 | 0.412568 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | null | 0.166667 | 0 | null | null | 0 | 0 | 0 | 0 | null | 0 | 1 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 10 |
25c670fb467c8125228a1ed20e79d8863d4e9753 | 4,289 | py | Python | utilities/tfwrapper/layer.py | wong-ck/DeepSegment | 01c04b2d80355b97d3494e0073ba35ef9c98e546 | [
"MIT"
] | null | null | null | utilities/tfwrapper/layer.py | wong-ck/DeepSegment | 01c04b2d80355b97d3494e0073ba35ef9c98e546 | [
"MIT"
] | null | null | null | utilities/tfwrapper/layer.py | wong-ck/DeepSegment | 01c04b2d80355b97d3494e0073ba35ef9c98e546 | [
"MIT"
] | null | null | null | # Written by Chun Kit Wong and CIRC under MIT license:
# https://github.com/wong-ck/DeepSegment/blob/master/LICENSE
#
# Modified from the acdc_segmenter:
# https://github.com/baumgach/acdc_segmenter
import tensorflow as tf
def Conv2D(
input,
filters,
kernel_size=(3, 3),
strides=(1, 1),
padding='same',
data_format='channels_last',
activation=tf.nn.relu,
use_bias=True,
kernel_initializer=None,
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
trainable=True,
batchnorm=False,
name=None
):
output = tf.layers.Conv2D(
filters=filters,
kernel_size=kernel_size,
strides=strides,
padding=padding,
data_format=data_format,
activation=tf.identity,
use_bias=use_bias,
kernel_initializer=kernel_initializer,
kernel_regularizer=kernel_regularizer,
bias_regularizer=bias_regularizer,
activity_regularizer=activity_regularizer,
trainable=trainable,
name=name
)(input)
if batchnorm:
output = tf.layers.BatchNormalization(name=name + "_bn")(output)
output = activation(output, name=name + "_activation")
return output
def Conv2DTranspose(
input,
filters,
kernel_size=(4, 4),
strides=(2, 2),
padding='same',
data_format='channels_last',
activation=tf.nn.relu,
use_bias=True,
kernel_initializer=None,
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
trainable=True,
batchnorm=False,
name=None
):
output = tf.layers.Conv2DTranspose(
filters=filters,
kernel_size=kernel_size,
strides=strides,
padding=padding,
data_format=data_format,
activation=tf.identity,
use_bias=use_bias,
kernel_initializer=kernel_initializer,
kernel_regularizer=kernel_regularizer,
bias_regularizer=bias_regularizer,
activity_regularizer=activity_regularizer,
trainable=trainable,
name=name
)(input)
if batchnorm:
output = tf.layers.BatchNormalization(name=name + "_bn")(output)
output = activation(output, name=name + "_activation")
return output
def Conv3D(
input,
filters,
kernel_size=(3, 3, 3),
strides=(1, 1, 1),
padding='same',
data_format='channels_last',
activation=tf.nn.relu,
use_bias=True,
kernel_initializer=None,
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
trainable=True,
batchnorm=False,
name=None
):
output = tf.layers.Conv3D(
filters=filters,
kernel_size=kernel_size,
strides=strides,
padding=padding,
data_format=data_format,
activation=tf.identity,
use_bias=use_bias,
kernel_initializer=kernel_initializer,
kernel_regularizer=kernel_regularizer,
bias_regularizer=bias_regularizer,
activity_regularizer=activity_regularizer,
trainable=trainable,
name=name
)(input)
if batchnorm:
output = tf.layers.BatchNormalization(name=name + "_bn")(output)
output = activation(output, name=name + "_activation")
return output
def Conv3DTranspose(
input,
filters,
kernel_size=(4, 4, 4),
strides=(2, 2, 2),
padding='same',
data_format='channels_last',
activation=tf.nn.relu,
use_bias=False,
kernel_initializer=None,
kernel_regularizer=None,
bias_regularizer=None,
activity_regularizer=None,
trainable=True,
batchnorm=False,
name=None
):
output = tf.layers.Conv3DTranspose(
filters=filters,
kernel_size=kernel_size,
strides=strides,
padding=padding,
data_format=data_format,
activation=tf.identity,
use_bias=use_bias,
kernel_initializer=kernel_initializer,
kernel_regularizer=kernel_regularizer,
bias_regularizer=bias_regularizer,
activity_regularizer=activity_regularizer,
trainable=trainable,
name=name
)(input)
if batchnorm:
output = tf.layers.BatchNormalization(name=name + "_bn")(output)
output = activation(output, name=name + "_activation")
return output
| 25.529762 | 72 | 0.666822 | 462 | 4,289 | 5.978355 | 0.147186 | 0.043447 | 0.04924 | 0.031861 | 0.904055 | 0.892469 | 0.857712 | 0.857712 | 0.857712 | 0.857712 | 0 | 0.008571 | 0.238284 | 4,289 | 167 | 73 | 25.682635 | 0.836853 | 0.043833 | 0 | 0.875862 | 0 | 0 | 0.030281 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.027586 | false | 0 | 0.006897 | 0 | 0.062069 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
25fdbbd23c41df3e72f4b42fc40687f3fbeda0e3 | 197 | py | Python | bogofilter/__init__.py | stefantalpalaru/django-bogofilter | c52d1b82b93111016d23ace46bd0deb18cdc8aa9 | [
"BSD-3-Clause"
] | 1 | 2018-05-29T08:43:57.000Z | 2018-05-29T08:43:57.000Z | bogofilter/__init__.py | stefantalpalaru/django-bogofilter | c52d1b82b93111016d23ace46bd0deb18cdc8aa9 | [
"BSD-3-Clause"
] | null | null | null | bogofilter/__init__.py | stefantalpalaru/django-bogofilter | c52d1b82b93111016d23ace46bd0deb18cdc8aa9 | [
"BSD-3-Clause"
] | null | null | null | from bogofilter.models import BogofilterComment
from bogofilter.forms import BogofilterCommentForm
def get_model():
return BogofilterComment
def get_form():
return BogofilterCommentForm
| 19.7 | 50 | 0.822335 | 20 | 197 | 8 | 0.6 | 0.175 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.137056 | 197 | 9 | 51 | 21.888889 | 0.941176 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.333333 | true | 0 | 0.333333 | 0.333333 | 1 | 0 | 1 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 1 | 1 | 1 | 0 | 0 | 7 |
d33fb2c0d43192771209e073108dfc21a6ee90f1 | 221 | py | Python | main.py | GGG1235/scrapy-douban | 76e0e890279975829cf44957a5ca41114a96c396 | [
"MIT"
] | null | null | null | main.py | GGG1235/scrapy-douban | 76e0e890279975829cf44957a5ca41114a96c396 | [
"MIT"
] | null | null | null | main.py | GGG1235/scrapy-douban | 76e0e890279975829cf44957a5ca41114a96c396 | [
"MIT"
] | null | null | null | from scrapy import cmdline
cmdline.execute('scrapy crawl douban_spider'.split())
# cmdline.execute('scrapy crawl douban_spider -o douban.csv'.split())
# cmdline.execute('scrapy crawl douban_spider -o douban.json'.split()) | 55.25 | 70 | 0.782805 | 31 | 221 | 5.483871 | 0.387097 | 0.247059 | 0.352941 | 0.441176 | 0.794118 | 0.794118 | 0.576471 | 0.576471 | 0.576471 | 0 | 0 | 0 | 0.081448 | 221 | 4 | 70 | 55.25 | 0.837438 | 0.615385 | 0 | 0 | 0 | 0 | 0.313253 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 0.5 | 0 | 0.5 | 0 | 0 | 0 | 0 | null | 1 | 1 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 7 |
d376fc9eac4886a80905d06ec31b0e3baad75e50 | 3,719 | py | Python | output/models/wg_data/sg/snbranch_xsd/snbranch.py | tefra/xsdata-w3c-tests | b6b6a4ac4e0ab610e4b50d868510a8b7105b1a5f | [
"MIT"
] | 1 | 2021-08-14T17:59:21.000Z | 2021-08-14T17:59:21.000Z | output/models/wg_data/sg/snbranch_xsd/snbranch.py | tefra/xsdata-w3c-tests | b6b6a4ac4e0ab610e4b50d868510a8b7105b1a5f | [
"MIT"
] | 4 | 2020-02-12T21:30:44.000Z | 2020-04-15T20:06:46.000Z | output/models/wg_data/sg/snbranch_xsd/snbranch.py | tefra/xsdata-w3c-tests | b6b6a4ac4e0ab610e4b50d868510a8b7105b1a5f | [
"MIT"
] | null | null | null | from dataclasses import dataclass, field
from typing import List
__NAMESPACE__ = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
@dataclass
class T:
choice: List[object] = field(
default_factory=list,
metadata={
"type": "Elements",
"choices": (
{
"name": "s1",
"type": str,
"namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1",
},
{
"name": "s",
"type": str,
"namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1",
},
{
"name": "n1",
"type": str,
"namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1",
},
{
"name": "n",
"type": str,
"namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1",
},
{
"wildcard": True,
"type": object,
"namespace": "##any",
},
{
"name": "a",
"type": str,
"namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1",
},
{
"name": "b",
"type": str,
"namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1",
},
{
"name": "c",
"type": str,
"namespace": "http://www.w3.org/XML/2008/xsdl-exx/ns1",
},
),
"max_occurs": 12,
}
)
@dataclass
class A:
class Meta:
name = "a"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class B:
class Meta:
name = "b"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class C:
class Meta:
name = "c"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class E:
class Meta:
name = "e"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class N:
class Meta:
name = "n"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class N1:
class Meta:
name = "n1"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class S:
class Meta:
name = "s"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class S1:
class Meta:
name = "s1"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
value: str = field(
default="",
metadata={
"required": True,
}
)
@dataclass
class Test(T):
class Meta:
name = "test"
namespace = "http://www.w3.org/XML/2008/xsdl-exx/ns1"
| 21.011299 | 75 | 0.406292 | 350 | 3,719 | 4.3 | 0.134286 | 0.146844 | 0.180731 | 0.203322 | 0.762126 | 0.762126 | 0.762126 | 0.762126 | 0.762126 | 0.762126 | 0 | 0.053166 | 0.443668 | 3,719 | 176 | 76 | 21.130682 | 0.674239 | 0 | 0 | 0.510204 | 0 | 0 | 0.248454 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.013605 | 0 | 0.204082 | 0 | 0 | 0 | 0 | null | 0 | 1 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
d39d6d788817315b2f30d31b896887a762f587a8 | 5,554 | py | Python | Projects/3_Adversarial Search/algorithms/algorithms.py | kdcarlsen/artificial-intelligence | 6124dcc5c2caa6b4284dd287a75714cc2b52b0c1 | [
"MIT"
] | null | null | null | Projects/3_Adversarial Search/algorithms/algorithms.py | kdcarlsen/artificial-intelligence | 6124dcc5c2caa6b4284dd287a75714cc2b52b0c1 | [
"MIT"
] | null | null | null | Projects/3_Adversarial Search/algorithms/algorithms.py | kdcarlsen/artificial-intelligence | 6124dcc5c2caa6b4284dd287a75714cc2b52b0c1 | [
"MIT"
] | null | null | null | """
An implementation of alpha beta search without any enhancements (i.e. iterative deepening or depth parameters)
"""
def alpha_beta_search(gameState):
""" Return the move along a branch of the game tree that
has the best possible value. A move is a pair of coordinates
in (column, row) order corresponding to a legal move for
the searching player.
"""
# min value helper function
def min_value(gameState, alpha, beta):
""" Return the value for a win (+1) if the game is over,
otherwise return the minimum value over all legal child
nodes.
"""
if gameState.terminal_test():
return gameState.utility(0)
v = float("inf")
for a in gameState.actions():
v = min(v, max_value(gameState.result(a), alpha, beta))
if v <= alpha: #effectively we are saying this value doesnt matter, alpha wins
return v
beta = min(beta, v)
return v
# min value helper function
def max_value(gameState, alpha, beta):
""" Return the value for a loss (-1) if the game is over,
otherwise return the maximum value over all legal child
nodes.
"""
if gameState.terminal_test():
return gameState.utility(0)
v = float("-inf")
for a in gameState.actions():
v = max(v, min_value(gameState.result(a), alpha, beta))
if v >= beta: # effectively value doesn't matter, beta is going to win at the next level up
return v
alpha = max(alpha, v)
return v
alpha = float("-inf")
beta = float("inf")
best_score = float("-inf")
best_move = None
for a in gameState.actions():
v = min_value(gameState.result(a), alpha, beta)
alpha = max(v, alpha)
if v > best_score:
best_score = v
best_move = a
return best_move
"""
An implementation of alpha beta search with depth limiting given an arbitrary evaluation function. All eval functions must take a single parameter, gameState
"""
def alpha_beta_search_enhanced(state, depth, evalFunc, playerId):
""" Return the move along a branch of the game tree that
has the best possible value. A move is a pair of coordinates
in (column, row) order corresponding to a legal move for
the searching player.
"""
# min value helper function
def min_value(gameState, alpha, beta, depth, evalFunc, playerId):
""" Return the value for a win (+1) if the game is over,
otherwise return the minimum value over all legal child
nodes.
"""
if gameState.terminal_test():
#print ("Depth: " + str(depth) + ";In min value terminal test")
return gameState.utility(playerId)
if depth <= 0:
return evalFunc(gameState, playerId)
v = float("inf")
for a in gameState.actions():
v = min(v, max_value(gameState.result(a), alpha, beta, depth-1, evalFunc, playerId))
if v <= alpha: #effectively we are saying this value doesnt matter, alpha wins
return v
beta = min(beta, v)
return v
# min value helper function
def max_value(gameState, alpha, beta, depth, evalFunc, playerId):
""" Return the value for a loss (-1) if the game is over,
otherwise return the maximum value over all legal child
nodes.
"""
if gameState.terminal_test():
#print ("Depth: " + str(depth) + ";In max value terminal test")
return gameState.utility(playerId)
if depth <= 0:
return evalFunc(gameState, playerId)
v = float("-inf")
for a in gameState.actions():
v = max(v, min_value(gameState.result(a), alpha, beta, depth-1, evalFunc, playerId))
if v >= beta: # effectively value doesn't matter, beta is going to win at the next level up
return v
alpha = max(alpha, v)
#print(v)
return v
alpha = float("-inf")
beta = float("inf")
best_score = float("-inf")
best_move = None
for a in state.actions():
v = min_value(state.result(a), alpha, beta, depth - 1, evalFunc, playerId)
alpha = max(v, alpha)
if v >= best_score:
best_score = v
best_move = a
#print(best_move)
return best_move
def minimax(state, depth, evalFunc, playerId):
def min_value(state, depth, evalFunc, playerId):
if state.terminal_test(): return state.utility(playerId)
if depth <= 0: return evalFunc(state, playerId)
value = float("inf")
for action in state.actions():
value = min(value, max_value(state.result(action), depth - 1, evalFunc, playerId))
return value
def max_value(state, depth, evalFunc, playerId):
if state.terminal_test(): return state.utility(playerId)
if depth <= 0: return evalFunc(state, playerId)
value = float("-inf")
for action in state.actions():
value = max(value, min_value(state.result(action), depth - 1, evalFunc, playerId))
return value
return max(state.actions(), key=lambda x: min_value(state.result(x), depth - 1, evalFunc, playerId)) | 38.303448 | 159 | 0.579222 | 702 | 5,554 | 4.527066 | 0.152422 | 0.03776 | 0.033984 | 0.030208 | 0.862177 | 0.85557 | 0.834802 | 0.829767 | 0.807111 | 0.807111 | 0 | 0.004293 | 0.328952 | 5,554 | 145 | 160 | 38.303448 | 0.848404 | 0.268815 | 0 | 0.72619 | 0 | 0 | 0.012068 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.107143 | false | 0 | 0 | 0 | 0.333333 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
d39ff571435287f5be1820bbedc36ed488043924 | 107 | py | Python | runpandas/io/gpx/__init__.py | pnposch/runpandas | 25388c18b52dfcc168e81922b8ba20ca93adad20 | [
"MIT"
] | 11 | 2020-12-04T20:43:23.000Z | 2022-03-16T19:19:12.000Z | runpandas/io/gpx/__init__.py | pnposch/runpandas | 25388c18b52dfcc168e81922b8ba20ca93adad20 | [
"MIT"
] | 45 | 2020-06-23T02:50:31.000Z | 2022-02-15T16:56:00.000Z | runpandas/io/gpx/__init__.py | pnposch/runpandas | 25388c18b52dfcc168e81922b8ba20ca93adad20 | [
"MIT"
] | 4 | 2021-11-11T15:23:04.000Z | 2022-02-02T13:02:12.000Z | from runpandas.io.gpx._parser import read # noqa
from runpandas.io.gpx._parser import gen_records # noqa
| 35.666667 | 56 | 0.794393 | 17 | 107 | 4.823529 | 0.588235 | 0.317073 | 0.365854 | 0.439024 | 0.731707 | 0.731707 | 0 | 0 | 0 | 0 | 0 | 0 | 0.130841 | 107 | 2 | 57 | 53.5 | 0.88172 | 0.084112 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 9 |
6cdecf5b5d8c19286abdd6eb1af0641601d99f02 | 934 | py | Python | cart/views.py | masrufjaman/central-shop | c65f80a0f48cf1e07133bad8d6c0d48fdc548226 | [
"MIT"
] | 1 | 2021-07-04T13:55:07.000Z | 2021-07-04T13:55:07.000Z | cart/views.py | masrufjaman/central-shop | c65f80a0f48cf1e07133bad8d6c0d48fdc548226 | [
"MIT"
] | null | null | null | cart/views.py | masrufjaman/central-shop | c65f80a0f48cf1e07133bad8d6c0d48fdc548226 | [
"MIT"
] | null | null | null | from django.shortcuts import render
from .models import *
def cart(request):
if request.user.is_authenticated:
customer = request.user.customer
order, created = Order.objects.get_or_create(
customer=customer, complete=False)
items = order.orderitem_set.all()
else:
items = []
order = {'get_cart_total': 0, 'get_cart_items': 0}
context = {'items': items, 'order': order}
return render(request, 'cart/cart.html', context)
def checkout(request):
if request.user.is_authenticated:
customer = request.user.customer
order, created = Order.objects.get_or_create(
customer=customer, complete=False)
items = order.orderitem_set.all()
else:
items = []
order = {'get_cart_total': 0, 'get_cart_items': 0}
context = {'items': items, 'order': order}
return render(request, 'cart/checkout.html', context)
| 28.30303 | 58 | 0.639186 | 110 | 934 | 5.281818 | 0.3 | 0.10327 | 0.055077 | 0.068847 | 0.829604 | 0.829604 | 0.829604 | 0.829604 | 0.829604 | 0.829604 | 0 | 0.005634 | 0.239829 | 934 | 32 | 59 | 29.1875 | 0.812676 | 0 | 0 | 0.75 | 0 | 0 | 0.115632 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.083333 | false | 0 | 0.083333 | 0 | 0.25 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
6cf2688a82e01b5de5bad59588d565f78563f146 | 454 | py | Python | Codegate/2019 Quals/the_matrix/solver.py | PurpEth/solved-hacking-problem | 6f289d1647eb9c091caa580c7aae673e3ba02952 | [
"Unlicense"
] | 1 | 2021-08-24T22:16:41.000Z | 2021-08-24T22:16:41.000Z | Codegate/2019 Quals/the_matrix/solver.py | PurpEth/solved-hacking-problem | 6f289d1647eb9c091caa580c7aae673e3ba02952 | [
"Unlicense"
] | null | null | null | Codegate/2019 Quals/the_matrix/solver.py | PurpEth/solved-hacking-problem | 6f289d1647eb9c091caa580c7aae673e3ba02952 | [
"Unlicense"
] | null | null | null | import binascii
tile = "ThER_SPONFLAG()CI "
data = "11 11 11 11 11 0F 07 08 0C 03 0B 00 04 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 09 0A 0B 0C 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 11 0D 00 01 02 03 02 04 10 05 04 08 07 04 05 06 07 08 0E 11".replace(' ', '')
print ''.join(map(lambda x: tile[ord(x)], binascii.unhexlify(data)))
| 56.75 | 337 | 0.660793 | 123 | 454 | 2.430894 | 0.268293 | 0.936455 | 1.344482 | 1.712375 | 0.488294 | 0.45485 | 0.45485 | 0.45485 | 0.45485 | 0.45485 | 0 | 0.60241 | 0.268722 | 454 | 7 | 338 | 64.857143 | 0.298193 | 0 | 0 | 0 | 0 | 0.25 | 0.726872 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | null | 0 | 0.25 | null | null | 0.25 | 0 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | null | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 10 |
9f0823775c9a82617d932cae5ad6d03763d793e7 | 4,709 | py | Python | 2017/171125/master/tests.py | emmenezes/CodingDojo | 50468e29ea9c724a4dc1196c8374125c5b1cfc20 | [
"Beerware"
] | 11 | 2017-06-30T00:33:14.000Z | 2019-04-18T01:16:13.000Z | 2017/171125/master/tests.py | emmenezes/CodingDojo | 50468e29ea9c724a4dc1196c8374125c5b1cfc20 | [
"Beerware"
] | 7 | 2017-10-29T20:05:01.000Z | 2018-07-06T20:18:51.000Z | 2017/171125/master/tests.py | emmenezes/CodingDojo | 50468e29ea9c724a4dc1196c8374125c5b1cfc20 | [
"Beerware"
] | 5 | 2019-10-23T22:49:55.000Z | 2021-01-11T01:39:58.000Z | import unittest
from main import Brainfuck
class BrainfuckTests(unittest.TestCase):
def setUp(self):
self.bf = Brainfuck()
def test_output_cell(self):
program = '.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(ord(result),0)
def test_ret_inc_cell(self):
program = '+'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'')
def test_ret_dec_cell(self):
program = '-'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'')
def test_ret_inc_pont(self):
program = '>'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'')
def test_ret_dec_pont(self):
program = '<'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'Erro limite')
def test_ret_input(self):
program = ','
leitura = 'a'
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'')
def test_ret_inc_uni_cell(self):
program = '+.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(ord(result),1)
def test_ret_dec_uni_cell(self):
program = '-.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(ord(result),255)
def test_ret_inc_uni_pont(self):
program = '>.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(ord(result),0)
def test_ret_dec_uni_pont(self):
program = '<.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'Erro limite')
def test_ret_uni_input(self):
program = ',.'
leitura = 'a'
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'a')
def test_ret_char_dif(self):
program = '/sdçkasdfçs.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(ord(result),0)
def test_incrementa_cell(self):
program = '+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'A')
def test_decrementa_cell(self):
program = '++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.-.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'ZYXWVUTSRQPONMLKJIHGFEDCBA')
def test_incrementa_pont(self):
program = '+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.>++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'AB')
def test_decrementa_pont(self):
program = '+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++>++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++>+++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++++<<.>.>.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'ABC')
def test_input_cell(self):
program = ',-.'
leitura = '9'
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'8')
def test_char_diferente(self):
program = '+++++Testando+++++++++++++++Outros+++++++++++++++++++++++++++++++++++++Caracteres++++++++++++++++++++++++e+++++++++.-.-.-.-.-deixando.-.-.-.-.-.-a.-.-.-.-cadeia.-.-.-.-.-.-.-enorme.-.-.-.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result,'ZYXWVUTSRQPONMLKJIHGFEDCBA')
def test_cont_colchete_errado(self):
program = '+[>,]<-[+.<-]]'
result = self.bf.cont_colchete(program)
self.assertEqual(result, 'Malformed expression')
def test_loop_simples(self):
program = '++++++++++[>++++++++>++++++++++>+++++++++++>++++++++++>++++++++++++>++++++++++>++++++++++>+++>++++++++>+++++<<<<<<<<<<-]>++++.>---.>--.>+++++.>----.>++++.>---.>++.>+++.>.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result, 'Talitha S2')
def test_loops_encadeados(self):
program = '++++++++[>++++[>++>+++>+++>+<<<<-]>+>+>->>+[<]<-]>>.>---.+++++++..+++.>>.<-.<.+++.------.--------.>>+.>++.'
leitura = ''
result = self.bf.brainfuck_program(program,leitura)
self.assertEqual(result, 'Hello World!\n')
if __name__ == '__main__':
unittest.main()
| 34.123188 | 223 | 0.528775 | 431 | 4,709 | 5.577726 | 0.153132 | 0.221298 | 0.131032 | 0.174709 | 0.792013 | 0.77995 | 0.77995 | 0.77995 | 0.77995 | 0.77995 | 0 | 0.002533 | 0.161605 | 4,709 | 137 | 224 | 34.372263 | 0.606383 | 0 | 0 | 0.45045 | 0 | 0 | 0.253345 | 0.225738 | 0 | 0 | 0 | 0 | 0.189189 | 1 | 0.198198 | false | 0 | 0.018018 | 0 | 0.225225 | 0 | 0 | 0 | 0 | null | 1 | 0 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
9f3f05dd4b749f6cd110d80fa2a35b03f5283879 | 1,168 | py | Python | controllers/controllers.py | horaciosanrafael/cheques | 50929bc67c928091f9012165f4aa2cfd4efab4f3 | [
"MIT"
] | null | null | null | controllers/controllers.py | horaciosanrafael/cheques | 50929bc67c928091f9012165f4aa2cfd4efab4f3 | [
"MIT"
] | null | null | null | controllers/controllers.py | horaciosanrafael/cheques | 50929bc67c928091f9012165f4aa2cfd4efab4f3 | [
"MIT"
] | null | null | null | # -*- coding: utf-8 -*-
# from odoo import http
# class /home/horacio/odoo1303/misapps/cheques(http.Controller):
# @http.route('//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques/', auth='public')
# def index(self, **kw):
# return "Hello, world"
# @http.route('//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques/objects/', auth='public')
# def list(self, **kw):
# return http.request.render('/home/horacio/odoo1303/misapps/cheques.listing', {
# 'root': '//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques',
# 'objects': http.request.env['/home/horacio/odoo1303/misapps/cheques./home/horacio/odoo1303/misapps/cheques'].search([]),
# })
# @http.route('//home/horacio/odoo1303/misapps/cheques//home/horacio/odoo1303/misapps/cheques/objects/<model("/home/horacio/odoo1303/misapps/cheques./home/horacio/odoo1303/misapps/cheques"):obj>/', auth='public')
# def object(self, obj, **kw):
# return http.request.render('/home/horacio/odoo1303/misapps/cheques.object', {
# 'object': obj
# })
| 53.090909 | 216 | 0.668664 | 135 | 1,168 | 5.785185 | 0.259259 | 0.211268 | 0.364917 | 0.49936 | 0.759283 | 0.717029 | 0.717029 | 0.717029 | 0.717029 | 0.717029 | 0 | 0.060757 | 0.140411 | 1,168 | 21 | 217 | 55.619048 | 0.717131 | 0.96661 | 0 | null | 0 | null | 0 | 0 | null | 0 | 0 | 0 | null | 1 | null | true | 0 | 0 | null | null | null | 0 | 0 | 0 | null | 1 | 1 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 10 |
9f6dc098e39fe82a31e6f3258915b1cc23bdc0d0 | 1,944 | py | Python | pydevices/RfxDevices/SPIDER_PARAMS.py | fluffynukeit/mdsplus | a204d2e9d26554bb035945595210f2a57d187250 | [
"BSD-2-Clause"
] | 53 | 2015-01-05T08:55:13.000Z | 2022-03-30T07:43:41.000Z | pydevices/RfxDevices/SPIDER_PARAMS.py | fluffynukeit/mdsplus | a204d2e9d26554bb035945595210f2a57d187250 | [
"BSD-2-Clause"
] | 1,231 | 2015-02-02T18:54:02.000Z | 2022-03-30T08:27:45.000Z | pydevices/RfxDevices/SPIDER_PARAMS.py | fluffynukeit/mdsplus | a204d2e9d26554bb035945595210f2a57d187250 | [
"BSD-2-Clause"
] | 44 | 2015-05-24T20:18:06.000Z | 2022-02-07T13:51:04.000Z | from MDSplus import mdsExceptions, Device
class SPIDER_PARAMS(Device):
"""SPIDER Experiment Parameters"""
parts = [{'path': ':COMMENT', 'type': 'text'},
{'path': ':R_ISBP', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(0.420,\'Ohm\'),\'Bias Plate parallel resistance\',*)")'},
{'path': ':R_ISBI', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(0.420,\'Ohm\'),\'Bias parallel resistance\',*)")'},
{'path': ':CS1', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR1 and DR2\',*)")'},
{'path': ':CP1', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR1 and DR2\',*)")'},
{'path': ':CS2', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR7 and DR7\',*)")'},
{'path': ':CP2', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR7 and DR8\',*)")'},
{'path': ':CS3', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR3 and DR4\',*)")'},
{'path': ':CP3', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR3 and DR4\',*)")'},
{'path': ':CS4', 'type': 'NUMERIC',
'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Series capacitor DR5 and DR5\',*)")'},
{'path': ':CP4', 'type': 'NUMERIC', 'valueExpr': 'Data.compile("build_param(build_with_units(10.e-9,\'F\'),\'Parallel capacitor DR5 and DR6\',*)")'}]
| 74.769231 | 165 | 0.549897 | 224 | 1,944 | 4.625 | 0.25 | 0.106178 | 0.19305 | 0.23166 | 0.764479 | 0.714286 | 0.714286 | 0.714286 | 0.714286 | 0.714286 | 0 | 0.036506 | 0.210905 | 1,944 | 25 | 166 | 77.76 | 0.638853 | 0.014403 | 0 | 0 | 0 | 0 | 0.468063 | 0.265969 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.045455 | 0 | 0.136364 | 0 | 0 | 0 | 0 | null | 0 | 1 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
9fcd606e164c8ee5686484bf2866c7eb8cd997cb | 32,676 | py | Python | sdk/python/pulumi_azure/network/traffic_manager_azure_endpoint.py | henriktao/pulumi-azure | f1cbcf100b42b916da36d8fe28be3a159abaf022 | [
"ECL-2.0",
"Apache-2.0"
] | null | null | null | sdk/python/pulumi_azure/network/traffic_manager_azure_endpoint.py | henriktao/pulumi-azure | f1cbcf100b42b916da36d8fe28be3a159abaf022 | [
"ECL-2.0",
"Apache-2.0"
] | null | null | null | sdk/python/pulumi_azure/network/traffic_manager_azure_endpoint.py | henriktao/pulumi-azure | f1cbcf100b42b916da36d8fe28be3a159abaf022 | [
"ECL-2.0",
"Apache-2.0"
] | null | null | null | # coding=utf-8
# *** WARNING: this file was generated by the Pulumi Terraform Bridge (tfgen) Tool. ***
# *** Do not edit by hand unless you're certain you know what you are doing! ***
import warnings
import pulumi
import pulumi.runtime
from typing import Any, Mapping, Optional, Sequence, Union, overload
from .. import _utilities
from . import outputs
from ._inputs import *
__all__ = ['TrafficManagerAzureEndpointArgs', 'TrafficManagerAzureEndpoint']
@pulumi.input_type
class TrafficManagerAzureEndpointArgs:
def __init__(__self__, *,
profile_id: pulumi.Input[str],
target_resource_id: pulumi.Input[str],
weight: pulumi.Input[int],
custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]] = None,
enabled: Optional[pulumi.Input[bool]] = None,
geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
name: Optional[pulumi.Input[str]] = None,
priority: Optional[pulumi.Input[int]] = None,
subnets: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]] = None):
"""
The set of arguments for constructing a TrafficManagerAzureEndpoint resource.
:param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created.
:param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target.
:param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`.
:param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]] custom_headers: One or more `custom_header` blocks as defined below.
:param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`.
:param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault).
:param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created.
:param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be
specified for Profiles using the `Priority` traffic routing method. Supports
values between 1 and 1000, with no Endpoints sharing the same value. If
omitted the value will be computed in order of creation.
:param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]] subnets: One or more `subnet` blocks as defined below
"""
pulumi.set(__self__, "profile_id", profile_id)
pulumi.set(__self__, "target_resource_id", target_resource_id)
pulumi.set(__self__, "weight", weight)
if custom_headers is not None:
pulumi.set(__self__, "custom_headers", custom_headers)
if enabled is not None:
pulumi.set(__self__, "enabled", enabled)
if geo_mappings is not None:
pulumi.set(__self__, "geo_mappings", geo_mappings)
if name is not None:
pulumi.set(__self__, "name", name)
if priority is not None:
pulumi.set(__self__, "priority", priority)
if subnets is not None:
pulumi.set(__self__, "subnets", subnets)
@property
@pulumi.getter(name="profileId")
def profile_id(self) -> pulumi.Input[str]:
"""
The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created.
"""
return pulumi.get(self, "profile_id")
@profile_id.setter
def profile_id(self, value: pulumi.Input[str]):
pulumi.set(self, "profile_id", value)
@property
@pulumi.getter(name="targetResourceId")
def target_resource_id(self) -> pulumi.Input[str]:
"""
The ID of the Azure Resource which should be used as a target.
"""
return pulumi.get(self, "target_resource_id")
@target_resource_id.setter
def target_resource_id(self, value: pulumi.Input[str]):
pulumi.set(self, "target_resource_id", value)
@property
@pulumi.getter
def weight(self) -> pulumi.Input[int]:
"""
Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`.
"""
return pulumi.get(self, "weight")
@weight.setter
def weight(self, value: pulumi.Input[int]):
pulumi.set(self, "weight", value)
@property
@pulumi.getter(name="customHeaders")
def custom_headers(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]:
"""
One or more `custom_header` blocks as defined below.
"""
return pulumi.get(self, "custom_headers")
@custom_headers.setter
def custom_headers(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]):
pulumi.set(self, "custom_headers", value)
@property
@pulumi.getter
def enabled(self) -> Optional[pulumi.Input[bool]]:
"""
Is the endpoint enabled? Defaults to `true`.
"""
return pulumi.get(self, "enabled")
@enabled.setter
def enabled(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "enabled", value)
@property
@pulumi.getter(name="geoMappings")
def geo_mappings(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]:
"""
A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault).
"""
return pulumi.get(self, "geo_mappings")
@geo_mappings.setter
def geo_mappings(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]):
pulumi.set(self, "geo_mappings", value)
@property
@pulumi.getter
def name(self) -> Optional[pulumi.Input[str]]:
"""
The name of the Azure Endpoint. Changing this forces a new resource to be created.
"""
return pulumi.get(self, "name")
@name.setter
def name(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "name", value)
@property
@pulumi.getter
def priority(self) -> Optional[pulumi.Input[int]]:
"""
Specifies the priority of this Endpoint, this must be
specified for Profiles using the `Priority` traffic routing method. Supports
values between 1 and 1000, with no Endpoints sharing the same value. If
omitted the value will be computed in order of creation.
"""
return pulumi.get(self, "priority")
@priority.setter
def priority(self, value: Optional[pulumi.Input[int]]):
pulumi.set(self, "priority", value)
@property
@pulumi.getter
def subnets(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]:
"""
One or more `subnet` blocks as defined below
"""
return pulumi.get(self, "subnets")
@subnets.setter
def subnets(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]):
pulumi.set(self, "subnets", value)
@pulumi.input_type
class _TrafficManagerAzureEndpointState:
def __init__(__self__, *,
custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]] = None,
enabled: Optional[pulumi.Input[bool]] = None,
geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
name: Optional[pulumi.Input[str]] = None,
priority: Optional[pulumi.Input[int]] = None,
profile_id: Optional[pulumi.Input[str]] = None,
subnets: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]] = None,
target_resource_id: Optional[pulumi.Input[str]] = None,
weight: Optional[pulumi.Input[int]] = None):
"""
Input properties used for looking up and filtering TrafficManagerAzureEndpoint resources.
:param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]] custom_headers: One or more `custom_header` blocks as defined below.
:param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`.
:param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault).
:param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created.
:param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be
specified for Profiles using the `Priority` traffic routing method. Supports
values between 1 and 1000, with no Endpoints sharing the same value. If
omitted the value will be computed in order of creation.
:param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created.
:param pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]] subnets: One or more `subnet` blocks as defined below
:param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target.
:param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`.
"""
if custom_headers is not None:
pulumi.set(__self__, "custom_headers", custom_headers)
if enabled is not None:
pulumi.set(__self__, "enabled", enabled)
if geo_mappings is not None:
pulumi.set(__self__, "geo_mappings", geo_mappings)
if name is not None:
pulumi.set(__self__, "name", name)
if priority is not None:
pulumi.set(__self__, "priority", priority)
if profile_id is not None:
pulumi.set(__self__, "profile_id", profile_id)
if subnets is not None:
pulumi.set(__self__, "subnets", subnets)
if target_resource_id is not None:
pulumi.set(__self__, "target_resource_id", target_resource_id)
if weight is not None:
pulumi.set(__self__, "weight", weight)
@property
@pulumi.getter(name="customHeaders")
def custom_headers(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]:
"""
One or more `custom_header` blocks as defined below.
"""
return pulumi.get(self, "custom_headers")
@custom_headers.setter
def custom_headers(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointCustomHeaderArgs']]]]):
pulumi.set(self, "custom_headers", value)
@property
@pulumi.getter
def enabled(self) -> Optional[pulumi.Input[bool]]:
"""
Is the endpoint enabled? Defaults to `true`.
"""
return pulumi.get(self, "enabled")
@enabled.setter
def enabled(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "enabled", value)
@property
@pulumi.getter(name="geoMappings")
def geo_mappings(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]:
"""
A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault).
"""
return pulumi.get(self, "geo_mappings")
@geo_mappings.setter
def geo_mappings(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]):
pulumi.set(self, "geo_mappings", value)
@property
@pulumi.getter
def name(self) -> Optional[pulumi.Input[str]]:
"""
The name of the Azure Endpoint. Changing this forces a new resource to be created.
"""
return pulumi.get(self, "name")
@name.setter
def name(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "name", value)
@property
@pulumi.getter
def priority(self) -> Optional[pulumi.Input[int]]:
"""
Specifies the priority of this Endpoint, this must be
specified for Profiles using the `Priority` traffic routing method. Supports
values between 1 and 1000, with no Endpoints sharing the same value. If
omitted the value will be computed in order of creation.
"""
return pulumi.get(self, "priority")
@priority.setter
def priority(self, value: Optional[pulumi.Input[int]]):
pulumi.set(self, "priority", value)
@property
@pulumi.getter(name="profileId")
def profile_id(self) -> Optional[pulumi.Input[str]]:
"""
The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created.
"""
return pulumi.get(self, "profile_id")
@profile_id.setter
def profile_id(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "profile_id", value)
@property
@pulumi.getter
def subnets(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]:
"""
One or more `subnet` blocks as defined below
"""
return pulumi.get(self, "subnets")
@subnets.setter
def subnets(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['TrafficManagerAzureEndpointSubnetArgs']]]]):
pulumi.set(self, "subnets", value)
@property
@pulumi.getter(name="targetResourceId")
def target_resource_id(self) -> Optional[pulumi.Input[str]]:
"""
The ID of the Azure Resource which should be used as a target.
"""
return pulumi.get(self, "target_resource_id")
@target_resource_id.setter
def target_resource_id(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "target_resource_id", value)
@property
@pulumi.getter
def weight(self) -> Optional[pulumi.Input[int]]:
"""
Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`.
"""
return pulumi.get(self, "weight")
@weight.setter
def weight(self, value: Optional[pulumi.Input[int]]):
pulumi.set(self, "weight", value)
class TrafficManagerAzureEndpoint(pulumi.CustomResource):
@overload
def __init__(__self__,
resource_name: str,
opts: Optional[pulumi.ResourceOptions] = None,
custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]]] = None,
enabled: Optional[pulumi.Input[bool]] = None,
geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
name: Optional[pulumi.Input[str]] = None,
priority: Optional[pulumi.Input[int]] = None,
profile_id: Optional[pulumi.Input[str]] = None,
subnets: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]]] = None,
target_resource_id: Optional[pulumi.Input[str]] = None,
weight: Optional[pulumi.Input[int]] = None,
__props__=None):
"""
Manages an Azure Endpoint within a Traffic Manager Profile.
## Example Usage
```python
import pulumi
import pulumi_azure as azure
example_resource_group = azure.core.ResourceGroup("exampleResourceGroup", location="West Europe")
example_public_ip = azure.network.PublicIp("examplePublicIp",
location=azurerm_resource_group["test"]["location"],
resource_group_name=azurerm_resource_group["test"]["name"],
allocation_method="Static",
domain_name_label="example-public-ip")
example_traffic_manager_profile = azure.network.TrafficManagerProfile("exampleTrafficManagerProfile",
resource_group_name=example_resource_group.name,
traffic_routing_method="Weighted",
dns_config=azure.network.TrafficManagerProfileDnsConfigArgs(
relative_name="example-profile",
ttl=100,
),
monitor_config=azure.network.TrafficManagerProfileMonitorConfigArgs(
protocol="http",
port=80,
path="/",
interval_in_seconds=30,
timeout_in_seconds=9,
tolerated_number_of_failures=3,
),
tags={
"environment": "Production",
})
example_traffic_manager_azure_endpoint = azure.network.TrafficManagerAzureEndpoint("exampleTrafficManagerAzureEndpoint",
profile_id=example_traffic_manager_profile.id,
weight=100,
target_resource_id=azurerm_public_ip["test"]["id"])
```
## Import
Azure Endpoints can be imported using the `resource id`, e.g.
```sh
$ pulumi import azure:network/trafficManagerAzureEndpoint:TrafficManagerAzureEndpoint example /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/example-resources/providers/Microsoft.Network/trafficManagerProfiles/example-profile/AzureEndpoints/example-endpoint
```
:param str resource_name: The name of the resource.
:param pulumi.ResourceOptions opts: Options for the resource.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]] custom_headers: One or more `custom_header` blocks as defined below.
:param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`.
:param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault).
:param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created.
:param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be
specified for Profiles using the `Priority` traffic routing method. Supports
values between 1 and 1000, with no Endpoints sharing the same value. If
omitted the value will be computed in order of creation.
:param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]] subnets: One or more `subnet` blocks as defined below
:param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target.
:param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`.
"""
...
@overload
def __init__(__self__,
resource_name: str,
args: TrafficManagerAzureEndpointArgs,
opts: Optional[pulumi.ResourceOptions] = None):
"""
Manages an Azure Endpoint within a Traffic Manager Profile.
## Example Usage
```python
import pulumi
import pulumi_azure as azure
example_resource_group = azure.core.ResourceGroup("exampleResourceGroup", location="West Europe")
example_public_ip = azure.network.PublicIp("examplePublicIp",
location=azurerm_resource_group["test"]["location"],
resource_group_name=azurerm_resource_group["test"]["name"],
allocation_method="Static",
domain_name_label="example-public-ip")
example_traffic_manager_profile = azure.network.TrafficManagerProfile("exampleTrafficManagerProfile",
resource_group_name=example_resource_group.name,
traffic_routing_method="Weighted",
dns_config=azure.network.TrafficManagerProfileDnsConfigArgs(
relative_name="example-profile",
ttl=100,
),
monitor_config=azure.network.TrafficManagerProfileMonitorConfigArgs(
protocol="http",
port=80,
path="/",
interval_in_seconds=30,
timeout_in_seconds=9,
tolerated_number_of_failures=3,
),
tags={
"environment": "Production",
})
example_traffic_manager_azure_endpoint = azure.network.TrafficManagerAzureEndpoint("exampleTrafficManagerAzureEndpoint",
profile_id=example_traffic_manager_profile.id,
weight=100,
target_resource_id=azurerm_public_ip["test"]["id"])
```
## Import
Azure Endpoints can be imported using the `resource id`, e.g.
```sh
$ pulumi import azure:network/trafficManagerAzureEndpoint:TrafficManagerAzureEndpoint example /subscriptions/00000000-0000-0000-0000-000000000000/resourceGroups/example-resources/providers/Microsoft.Network/trafficManagerProfiles/example-profile/AzureEndpoints/example-endpoint
```
:param str resource_name: The name of the resource.
:param TrafficManagerAzureEndpointArgs args: The arguments to use to populate this resource's properties.
:param pulumi.ResourceOptions opts: Options for the resource.
"""
...
def __init__(__self__, resource_name: str, *args, **kwargs):
resource_args, opts = _utilities.get_resource_args_opts(TrafficManagerAzureEndpointArgs, pulumi.ResourceOptions, *args, **kwargs)
if resource_args is not None:
__self__._internal_init(resource_name, opts, **resource_args.__dict__)
else:
__self__._internal_init(resource_name, *args, **kwargs)
def _internal_init(__self__,
resource_name: str,
opts: Optional[pulumi.ResourceOptions] = None,
custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]]] = None,
enabled: Optional[pulumi.Input[bool]] = None,
geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
name: Optional[pulumi.Input[str]] = None,
priority: Optional[pulumi.Input[int]] = None,
profile_id: Optional[pulumi.Input[str]] = None,
subnets: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]]] = None,
target_resource_id: Optional[pulumi.Input[str]] = None,
weight: Optional[pulumi.Input[int]] = None,
__props__=None):
if opts is None:
opts = pulumi.ResourceOptions()
if not isinstance(opts, pulumi.ResourceOptions):
raise TypeError('Expected resource options to be a ResourceOptions instance')
if opts.version is None:
opts.version = _utilities.get_version()
if opts.id is None:
if __props__ is not None:
raise TypeError('__props__ is only valid when passed in combination with a valid opts.id to get an existing resource')
__props__ = TrafficManagerAzureEndpointArgs.__new__(TrafficManagerAzureEndpointArgs)
__props__.__dict__["custom_headers"] = custom_headers
__props__.__dict__["enabled"] = enabled
__props__.__dict__["geo_mappings"] = geo_mappings
__props__.__dict__["name"] = name
__props__.__dict__["priority"] = priority
if profile_id is None and not opts.urn:
raise TypeError("Missing required property 'profile_id'")
__props__.__dict__["profile_id"] = profile_id
__props__.__dict__["subnets"] = subnets
if target_resource_id is None and not opts.urn:
raise TypeError("Missing required property 'target_resource_id'")
__props__.__dict__["target_resource_id"] = target_resource_id
if weight is None and not opts.urn:
raise TypeError("Missing required property 'weight'")
__props__.__dict__["weight"] = weight
super(TrafficManagerAzureEndpoint, __self__).__init__(
'azure:network/trafficManagerAzureEndpoint:TrafficManagerAzureEndpoint',
resource_name,
__props__,
opts)
@staticmethod
def get(resource_name: str,
id: pulumi.Input[str],
opts: Optional[pulumi.ResourceOptions] = None,
custom_headers: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]]] = None,
enabled: Optional[pulumi.Input[bool]] = None,
geo_mappings: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
name: Optional[pulumi.Input[str]] = None,
priority: Optional[pulumi.Input[int]] = None,
profile_id: Optional[pulumi.Input[str]] = None,
subnets: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]]] = None,
target_resource_id: Optional[pulumi.Input[str]] = None,
weight: Optional[pulumi.Input[int]] = None) -> 'TrafficManagerAzureEndpoint':
"""
Get an existing TrafficManagerAzureEndpoint resource's state with the given name, id, and optional extra
properties used to qualify the lookup.
:param str resource_name: The unique name of the resulting resource.
:param pulumi.Input[str] id: The unique provider ID of the resource to lookup.
:param pulumi.ResourceOptions opts: Options for the resource.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointCustomHeaderArgs']]]] custom_headers: One or more `custom_header` blocks as defined below.
:param pulumi.Input[bool] enabled: Is the endpoint enabled? Defaults to `true`.
:param pulumi.Input[Sequence[pulumi.Input[str]]] geo_mappings: A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault).
:param pulumi.Input[str] name: The name of the Azure Endpoint. Changing this forces a new resource to be created.
:param pulumi.Input[int] priority: Specifies the priority of this Endpoint, this must be
specified for Profiles using the `Priority` traffic routing method. Supports
values between 1 and 1000, with no Endpoints sharing the same value. If
omitted the value will be computed in order of creation.
:param pulumi.Input[str] profile_id: The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created.
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['TrafficManagerAzureEndpointSubnetArgs']]]] subnets: One or more `subnet` blocks as defined below
:param pulumi.Input[str] target_resource_id: The ID of the Azure Resource which should be used as a target.
:param pulumi.Input[int] weight: Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`.
"""
opts = pulumi.ResourceOptions.merge(opts, pulumi.ResourceOptions(id=id))
__props__ = _TrafficManagerAzureEndpointState.__new__(_TrafficManagerAzureEndpointState)
__props__.__dict__["custom_headers"] = custom_headers
__props__.__dict__["enabled"] = enabled
__props__.__dict__["geo_mappings"] = geo_mappings
__props__.__dict__["name"] = name
__props__.__dict__["priority"] = priority
__props__.__dict__["profile_id"] = profile_id
__props__.__dict__["subnets"] = subnets
__props__.__dict__["target_resource_id"] = target_resource_id
__props__.__dict__["weight"] = weight
return TrafficManagerAzureEndpoint(resource_name, opts=opts, __props__=__props__)
@property
@pulumi.getter(name="customHeaders")
def custom_headers(self) -> pulumi.Output[Optional[Sequence['outputs.TrafficManagerAzureEndpointCustomHeader']]]:
"""
One or more `custom_header` blocks as defined below.
"""
return pulumi.get(self, "custom_headers")
@property
@pulumi.getter
def enabled(self) -> pulumi.Output[Optional[bool]]:
"""
Is the endpoint enabled? Defaults to `true`.
"""
return pulumi.get(self, "enabled")
@property
@pulumi.getter(name="geoMappings")
def geo_mappings(self) -> pulumi.Output[Optional[Sequence[str]]]:
"""
A list of Geographic Regions used to distribute traffic, such as `WORLD`, `UK` or `DE`. The same location can't be specified in two endpoints. [See the Geographic Hierarchies documentation for more information](https://docs.microsoft.com/en-us/rest/api/trafficmanager/geographichierarchies/getdefault).
"""
return pulumi.get(self, "geo_mappings")
@property
@pulumi.getter
def name(self) -> pulumi.Output[str]:
"""
The name of the Azure Endpoint. Changing this forces a new resource to be created.
"""
return pulumi.get(self, "name")
@property
@pulumi.getter
def priority(self) -> pulumi.Output[int]:
"""
Specifies the priority of this Endpoint, this must be
specified for Profiles using the `Priority` traffic routing method. Supports
values between 1 and 1000, with no Endpoints sharing the same value. If
omitted the value will be computed in order of creation.
"""
return pulumi.get(self, "priority")
@property
@pulumi.getter(name="profileId")
def profile_id(self) -> pulumi.Output[str]:
"""
The ID of the Traffic Manager Profile that this Azure Endpoint should be created within. Changing this forces a new resource to be created.
"""
return pulumi.get(self, "profile_id")
@property
@pulumi.getter
def subnets(self) -> pulumi.Output[Optional[Sequence['outputs.TrafficManagerAzureEndpointSubnet']]]:
"""
One or more `subnet` blocks as defined below
"""
return pulumi.get(self, "subnets")
@property
@pulumi.getter(name="targetResourceId")
def target_resource_id(self) -> pulumi.Output[str]:
"""
The ID of the Azure Resource which should be used as a target.
"""
return pulumi.get(self, "target_resource_id")
@property
@pulumi.getter
def weight(self) -> pulumi.Output[int]:
"""
Specifies how much traffic should be distributed to this endpoint. Valid values are between `1` and `1000`.
"""
return pulumi.get(self, "weight")
| 51.216301 | 373 | 0.67193 | 3,722 | 32,676 | 5.733208 | 0.075228 | 0.082478 | 0.064108 | 0.045691 | 0.901682 | 0.88917 | 0.876142 | 0.865176 | 0.858147 | 0.843151 | 0 | 0.006325 | 0.230628 | 32,676 | 637 | 374 | 51.296703 | 0.842482 | 0.436314 | 0 | 0.758514 | 1 | 0 | 0.130448 | 0.058151 | 0 | 0 | 0 | 0 | 0 | 1 | 0.160991 | false | 0.003096 | 0.021672 | 0 | 0.278638 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
4cb024356cf6e7e21489992917997c87c2402fb5 | 4,591 | py | Python | simplemes/mesfactory/migrations/0001_initial.py | saulshao/simplemes | fb317570666f776231c1ffd48c6114b9697e47f1 | [
"MIT"
] | null | null | null | simplemes/mesfactory/migrations/0001_initial.py | saulshao/simplemes | fb317570666f776231c1ffd48c6114b9697e47f1 | [
"MIT"
] | null | null | null | simplemes/mesfactory/migrations/0001_initial.py | saulshao/simplemes | fb317570666f776231c1ffd48c6114b9697e47f1 | [
"MIT"
] | null | null | null | # Generated by Django 2.2.5 on 2019-09-14 22:35
from django.db import migrations, models
import django.db.models.deletion
class Migration(migrations.Migration):
initial = True
dependencies = [
]
operations = [
migrations.CreateModel(
name='Factory',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)),
('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)),
('description', models.CharField(max_length=512)),
('created_by', models.CharField(default='INIT', editable=False, max_length=50)),
('updated_by', models.CharField(default='INIT', editable=False, max_length=50)),
('created_on', models.DateTimeField(auto_now=True)),
('location', models.TextField(default='TBD', max_length=100)),
],
options={
'abstract': False,
},
),
migrations.CreateModel(
name='Line',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)),
('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)),
('description', models.CharField(max_length=512)),
('created_by', models.CharField(default='INIT', editable=False, max_length=50)),
('updated_by', models.CharField(default='INIT', editable=False, max_length=50)),
('created_on', models.DateTimeField(auto_now=True)),
('location', models.TextField(default='TBD', max_length=100)),
],
options={
'abstract': False,
},
),
migrations.CreateModel(
name='Workshop',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)),
('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)),
('description', models.CharField(max_length=512)),
('created_by', models.CharField(default='INIT', editable=False, max_length=50)),
('updated_by', models.CharField(default='INIT', editable=False, max_length=50)),
('created_on', models.DateTimeField(auto_now=True)),
('location', models.TextField(default='TBD', max_length=100)),
('factory_id', models.ForeignKey(on_delete=django.db.models.deletion.PROTECT, to='mesfactory.Factory')),
],
options={
'abstract': False,
},
),
migrations.CreateModel(
name='Station',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('code', models.CharField(default='None', help_text='Unique code, only specified characters are allowed', max_length=50, unique=True)),
('name', models.CharField(default='None', help_text='Name, most characters are allowed', max_length=50)),
('description', models.CharField(max_length=512)),
('created_by', models.CharField(default='INIT', editable=False, max_length=50)),
('updated_by', models.CharField(default='INIT', editable=False, max_length=50)),
('created_on', models.DateTimeField(auto_now=True)),
('location', models.TextField(default='TBD', max_length=100)),
('line_id', models.ForeignKey(on_delete=django.db.models.deletion.PROTECT, to='mesfactory.Line')),
],
options={
'abstract': False,
},
),
migrations.AddField(
model_name='line',
name='workshop_id',
field=models.ForeignKey(on_delete=django.db.models.deletion.PROTECT, to='mesfactory.Workshop'),
),
]
| 52.770115 | 151 | 0.589414 | 476 | 4,591 | 5.544118 | 0.159664 | 0.081849 | 0.133384 | 0.078818 | 0.881394 | 0.881394 | 0.864343 | 0.864343 | 0.864343 | 0.864343 | 0 | 0.021075 | 0.266173 | 4,591 | 86 | 152 | 53.383721 | 0.762244 | 0.009802 | 0 | 0.721519 | 1 | 0 | 0.174736 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.025316 | 0 | 0.075949 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
4cd257383445c1018ea20f26e57fae565db63fcc | 8,801 | py | Python | src/tests/test_utilities.py | Echeverrias/IE | 24c55f5338d9e9270bbed5af76730bf893891349 | [
"MIT"
] | 2 | 2019-11-28T02:42:25.000Z | 2020-03-05T01:13:40.000Z | src/tests/test_utilities.py | Echeverrias/IE | 24c55f5338d9e9270bbed5af76730bf893891349 | [
"MIT"
] | 22 | 2019-12-04T23:41:12.000Z | 2022-03-02T14:58:20.000Z | src/tests/test_utilities.py | Echeverrias/IE | 24c55f5338d9e9270bbed5af76730bf893891349 | [
"MIT"
] | 1 | 2020-03-05T01:13:43.000Z | 2020-03-05T01:13:43.000Z | import utilities.languages_utilities as lu
import utilities.utilities as u
from django.test import TestCase
import datetime
class TestUtilities(TestCase):
def test_get_float_list_from_string(self):
self.assertEqual(u.get_float_list_from_string("entre 43,550€ a 45,600€;.."), [43.55, 45.6])
self.assertEqual(u.get_float_list_from_string("entre 43.550€ a 45.600€;.."), [43550.0, 45600.0])
self.assertEqual(u.get_float_list_from_string("entre 43.55€ a 45.60€;.."), [43.55, 45.60])
def test_get_int_list_from_string_test(self):
self.assertEqual(u.get_int_list_from_string("entre 43.55€ a 45.60€;.."), [44, 46])
self.assertEqual(u.get_int_list_from_string("entre 43.550€ a 45.600€;.."), [43550, 45600])
self.assertEqual(u.get_int_list_from_string("entre 43550€ a 45600€;.."), [43550, 45600])
self.assertEqual(u.get_int_list_from_string("entre 43,550€ a 45,600€;.."), [44, 46])
def test_get_string_number_from_string(self):
self.assertEqual(u.get_string_number_from_string('Ver todas sus ofertas (397)'), '397')
self.assertEqual(u.get_string_number_from_string('Ver todas sus ofertas'), '')
def test_get_int_from_string(self):
self.assertEqual(u.get_int_from_string('Ref: 2622727'), 2622727)
self.assertEqual(u.get_int_from_string('Ver todas sus ofertas (397)', -1), 397)
self.assertEqual(u.get_int_from_string('Ver todas sus ofertas (397)'), 397)
self.assertEqual(u.get_int_from_string('Ver todas sus ofertas'), None)
self.assertEqual(u.get_int_from_string('Ver todas sus ofertas', -1), -1)
def test_get_text_between_parenthesis(self):
self.assertEqual(u.get_text_between_parenthesis('...'), [])
self.assertEqual(u.get_text_between_parenthesis('... ( test )'), [' test '])
self.assertEqual(u.get_text_between_parenthesis('... (test)'), ['test'])
self.assertEqual(u.get_text_between_parenthesis('... (test), ( test2)'), ['test', ' test2'])
self.assertEqual(u.get_text_between_parenthesis('... (test (subtest)) --- (test2)'), ['subtest', 'test2'])
self.assertEqual(u.get_text_between_parenthesis('... (test (subtest))'), ['subtest'])
def test_get_a_list_of_enumerates_from_string(self):
self.assertEqual(u.get_a_list_of_enumerates_from_string("perro, gato y/o tortuga"), ['perro', 'gato', 'tortuga'])
self.assertEqual(u.get_a_list_of_enumerates_from_string("pink, blue and red; green or black"), ['pink', 'blue', 'red', 'green', 'black'])
self.assertEqual(u.get_a_list_of_enumerates_from_string("hello world"), ["hello world"])
def test_get_an_and_list_of_enumerates_from_string(self):
self.assertEqual(u.get_an_and_list_of_enumerates_from_string("perro, gato y/o tortuga"), ['perro', 'gato y/o tortuga'])
self.assertEqual(u.get_an_and_list_of_enumerates_from_string("pink, blue and red; green or black"), ['pink', 'blue and red', 'green or black'])
self.assertEqual(u.get_an_and_list_of_enumerates_from_string("pink, blue y red; green or black"), ['pink', 'blue', 'red', 'green or black'])
self.assertEqual(u.get_an_and_list_of_enumerates_from_string("se requiere inglés más alemán con francés"), ['se requiere inglés', 'alemán', 'francés'])
self.assertEqual(u.get_an_and_list_of_enumerates_from_string("hello world"), ["hello world"])
def test_get_an_or_list_of_enumerates_from_string(self):
self.assertEqual(u.get_an_or_list_of_enumerates_from_string("perro, gato y/o tortuga o conejo"), ['perro, gato', 'tortuga', 'conejo'])
self.assertEqual(u.get_an_or_list_of_enumerates_from_string("pink, blue and red; green or black"), ['pink, blue and red; green or black'])
self.assertEqual(u.get_an_or_list_of_enumerates_from_string("se requiere inglés como alemán - francés"), ['se requiere inglés', 'alemán', 'francés'])
self.assertEqual(u.get_an_or_list_of_enumerates_from_string("hello world"), ["hello world"])
def test_find_indexes_apparitions(self):
self.assertEqual(u.find_indexes_apparitions('calandraca', 'a'), [1,3,7,9])
self.assertEqual(u.find_indexes_apparitions('calandraca', 'w'), [])
def test_get_date_from_string(self):
self.assertEqual(u.get_date_from_string("..... 31-12-2020 ......."), datetime.date(2020,12,31))
self.assertEqual(u.get_date_from_string("..... 31/12/2020 ......."), datetime.date(2020,12,31))
self.assertIsNone(u.get_date_from_string("..... veinte de diciembre ......."))
def test_get_end_index_of_a_paragraph_from_string(self):
self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123\n567\n9"), 4)
self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123\n567\n9", 4), 4)
self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123\n567\n9", 5), 8)
self.assertEqual(u.get_end_index_of_a_paragraph_from_string("0123"), -1)
def test_get_slice_from_sub_to_end_of_the_paragraph(self):
self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph('12', "0123\n567\n9"), '3')
self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph("5", "0123\n567\n9"), '67')
self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph("x", "0123\n567\n9"), "")
self.assertEqual(u.get_slice_from_sub_to_end_of_the_paragraph("12", "01234"), "")
def test_get_text_before_parenthesis(self):
self.assertEqual(u.get_text_before_parenthesis('...'), '')
self.assertEqual(u.get_text_before_parenthesis('hello ( test )'), "hello" )
self.assertEqual(u.get_text_before_parenthesis('hello (test), ( test2)'), "hello" )
def test_get_text_after_key(self):
self.assertEqual(u.get_text_after_key('hola', 'hola amigo '), 'amigo')
self.assertEqual(u.get_text_after_key('hola', 'adiós amigo '), '')
def test_get_text_before_key(self):
self.assertEqual(u.get_text_before_key('amigo', ' hola amigo '), 'hola')
self.assertEqual(u.get_text_before_key('amigo', 'adiós colega '), '')
def test_get_text_before_sub(self):
# default separators == ['.', '\n', ',']
self.assertEqual(u.get_text_before_sub("de todos sin duda, Paco era el mejor", 'era', distance=10), "Paco")
self.assertEqual(u.get_text_before_sub("de todos sin duda, Paco era el mejor", 'era', distance=11, separators=[]), "duda, Paco")
self.assertEqual(u.get_text_before_sub("de todos sin duda, Paco era el mejor", 'x', distance=10), "")
def test_get_text_after_sub(self):
# default separators == ['.', '\n', ',']
self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor, el más listo", 'Paco', distance=20), "era el mejor")
self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor, el más listo", 'Paco', distance=10), "era el me")
self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor, el más listo", 'Paco', distance=10, separators=['el más']), "era el me")
self.assertEqual(u.get_text_after_sub("sin duda, Paco era el mejor", 'x', distance=10), "")
def test_get_surrounding_text(self):
self.assertEqual(u.get_surrounding_text("0123456789", '4', None, 3), "123456789")
self.assertEqual(u.get_surrounding_text("0123456789", '4', 'x', 3), "123456789")
self.assertEqual(u.get_surrounding_text("0123456789", '3', '5', 3), "012345678")
self.assertEqual(u.get_surrounding_text("0123456789", '4', '6', 4), "0123456789")
self.assertEqual(u.get_surrounding_text("0123456789", '4', '6', 40), "0123456789")
self.assertEqual(u.get_surrounding_text("0123456789", 'x', '5', 3), "012345678")
self.assertEqual(u.get_surrounding_text("0123456789", 'x', 'x', 40), "0123456789")
def test_get_coincidences(self):
self.assertEqual(u.get_coincidences("123456789", ['1','3', '100']), ['1','3'])
self.assertEqual(u.get_coincidences("123456789123", ['1','3', '100']), ['1','3','1','3'])
self.assertEqual(u.get_coincidences("123456789123", ['1','3', '100'], unique_values=True), ['1','3'])
self.assertEqual(u.get_coincidences("123456789123", ['100']), [])
self.assertEqual(u.get_coincidences("ABCD", ['a', 'b']), [])
def test_replace_multiple(self):
self.assertEqual(u.replace_multiple('1234', ['1','3'], 'x'), 'x2x4')
self.assertEqual(u.replace_multiple('234', ['1','3'], 'x'), '2x4')
self.assertEqual(u.replace_multiple('234', ['100'], 'x'), '234')
def test_get_acronym(self):
self.assertEqual(u.get_acronym("Sociedad Limitada"), "SL")
self.assertEqual(u.get_acronym("sociedad limitada"), "")
self.assertEqual(u.get_acronym("sociedad limitada", title=True), "SL") | 69.299213 | 159 | 0.687763 | 1,293 | 8,801 | 4.389018 | 0.12065 | 0.200881 | 0.214273 | 0.237709 | 0.869251 | 0.815507 | 0.802819 | 0.724758 | 0.653921 | 0.603172 | 0 | 0.070677 | 0.146347 | 8,801 | 127 | 160 | 69.299213 | 0.682816 | 0.008749 | 0 | 0.019417 | 0 | 0 | 0.233089 | 0 | 0 | 0 | 0 | 0 | 0.747573 | 1 | 0.203884 | false | 0 | 0.038835 | 0 | 0.252427 | 0 | 0 | 0 | 0 | null | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 10 |
4cdc081e3da09d515dfe32c66c26ba14a6488ecc | 23,115 | py | Python | cloudmersive_security_api_client/api/content_threat_detection_api.py | Cloudmersive/Cloudmersive.APIClient.Python.Security | e62d445cd21e5800bd06901fd31bc4404e0fbd51 | [
"Apache-2.0"
] | null | null | null | cloudmersive_security_api_client/api/content_threat_detection_api.py | Cloudmersive/Cloudmersive.APIClient.Python.Security | e62d445cd21e5800bd06901fd31bc4404e0fbd51 | [
"Apache-2.0"
] | null | null | null | cloudmersive_security_api_client/api/content_threat_detection_api.py | Cloudmersive/Cloudmersive.APIClient.Python.Security | e62d445cd21e5800bd06901fd31bc4404e0fbd51 | [
"Apache-2.0"
] | null | null | null | # coding: utf-8
"""
securityapi
The security APIs help you detect and block security threats. # noqa: E501
OpenAPI spec version: v1
Generated by: https://github.com/swagger-api/swagger-codegen.git
"""
from __future__ import absolute_import
import re # noqa: F401
# python 2 and python 3 compatibility library
import six
from cloudmersive_security_api_client.api_client import ApiClient
class ContentThreatDetectionApi(object):
"""NOTE: This class is auto generated by the swagger code generator program.
Do not edit the class manually.
Ref: https://github.com/swagger-api/swagger-codegen
"""
def __init__(self, api_client=None):
if api_client is None:
api_client = ApiClient()
self.api_client = api_client
def content_threat_detection_automatic_threat_detection_string(self, value, **kwargs): # noqa: E501
"""Automatically detect threats in an input string # noqa: E501
Auto-detects a wide range of threat types in input string, including Cross-Site Scripting (XSS), SQL Injection (SQLI), XML External Entitites (XXE), Server-side Request Forgeries (SSRF), and JSON Insecure Deserialization (JID). # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_automatic_threat_detection_string(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringAutomaticThreatDetection
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.content_threat_detection_automatic_threat_detection_string_with_http_info(value, **kwargs) # noqa: E501
else:
(data) = self.content_threat_detection_automatic_threat_detection_string_with_http_info(value, **kwargs) # noqa: E501
return data
def content_threat_detection_automatic_threat_detection_string_with_http_info(self, value, **kwargs): # noqa: E501
"""Automatically detect threats in an input string # noqa: E501
Auto-detects a wide range of threat types in input string, including Cross-Site Scripting (XSS), SQL Injection (SQLI), XML External Entitites (XXE), Server-side Request Forgeries (SSRF), and JSON Insecure Deserialization (JID). # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_automatic_threat_detection_string_with_http_info(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringAutomaticThreatDetection
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['value'] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method content_threat_detection_automatic_threat_detection_string" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'value' is set
if ('value' not in params or
params['value'] is None):
raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_automatic_threat_detection_string`") # noqa: E501
collection_formats = {}
path_params = {}
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'value' in params:
body_params = params['value']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501
['application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['Apikey'] # noqa: E501
return self.api_client.call_api(
'/security/threat-detection/content/automatic/detect/string', 'POST',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='StringAutomaticThreatDetection', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
def content_threat_detection_check_sql_injection_string(self, value, **kwargs): # noqa: E501
"""Check text input for SQL Injection (SQLI) attacks # noqa: E501
Detects SQL Injection (SQLI) attacks from text input. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_check_sql_injection_string(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringSqlInjectionDetectionResult
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.content_threat_detection_check_sql_injection_string_with_http_info(value, **kwargs) # noqa: E501
else:
(data) = self.content_threat_detection_check_sql_injection_string_with_http_info(value, **kwargs) # noqa: E501
return data
def content_threat_detection_check_sql_injection_string_with_http_info(self, value, **kwargs): # noqa: E501
"""Check text input for SQL Injection (SQLI) attacks # noqa: E501
Detects SQL Injection (SQLI) attacks from text input. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_check_sql_injection_string_with_http_info(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringSqlInjectionDetectionResult
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['value'] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method content_threat_detection_check_sql_injection_string" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'value' is set
if ('value' not in params or
params['value'] is None):
raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_check_sql_injection_string`") # noqa: E501
collection_formats = {}
path_params = {}
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'value' in params:
body_params = params['value']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501
['application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['Apikey'] # noqa: E501
return self.api_client.call_api(
'/security/threat-detection/content/sql-injection/detect/string', 'POST',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='StringSqlInjectionDetectionResult', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
def content_threat_detection_check_xxe(self, value, **kwargs): # noqa: E501
"""Protect text input from XML External Entity (XXE) attacks # noqa: E501
Detects XXE (XML External Entity) attacks from XML text input. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_check_xxe(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringXxeDetectionResult
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.content_threat_detection_check_xxe_with_http_info(value, **kwargs) # noqa: E501
else:
(data) = self.content_threat_detection_check_xxe_with_http_info(value, **kwargs) # noqa: E501
return data
def content_threat_detection_check_xxe_with_http_info(self, value, **kwargs): # noqa: E501
"""Protect text input from XML External Entity (XXE) attacks # noqa: E501
Detects XXE (XML External Entity) attacks from XML text input. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_check_xxe_with_http_info(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringXxeDetectionResult
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['value'] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method content_threat_detection_check_xxe" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'value' is set
if ('value' not in params or
params['value'] is None):
raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_check_xxe`") # noqa: E501
collection_formats = {}
path_params = {}
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'value' in params:
body_params = params['value']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501
['application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['Apikey'] # noqa: E501
return self.api_client.call_api(
'/security/threat-detection/content/xxe/detect/xml/string', 'POST',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='StringXxeDetectionResult', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
def content_threat_detection_detect_insecure_deserialization_json_string(self, value, **kwargs): # noqa: E501
"""Detect Insecure Deserialization JSON (JID) attacks in a string # noqa: E501
Detects Insecure Deserialization JSON (JID) attacks from text input. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_detect_insecure_deserialization_json_string(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringInsecureDeserializationJsonDetection
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(value, **kwargs) # noqa: E501
else:
(data) = self.content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(value, **kwargs) # noqa: E501
return data
def content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(self, value, **kwargs): # noqa: E501
"""Detect Insecure Deserialization JSON (JID) attacks in a string # noqa: E501
Detects Insecure Deserialization JSON (JID) attacks from text input. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_detect_insecure_deserialization_json_string_with_http_info(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringInsecureDeserializationJsonDetection
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['value'] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method content_threat_detection_detect_insecure_deserialization_json_string" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'value' is set
if ('value' not in params or
params['value'] is None):
raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_detect_insecure_deserialization_json_string`") # noqa: E501
collection_formats = {}
path_params = {}
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'value' in params:
body_params = params['value']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501
['application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['Apikey'] # noqa: E501
return self.api_client.call_api(
'/security/threat-detection/content/insecure-deserialization/json/detect/string', 'POST',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='StringInsecureDeserializationJsonDetection', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
def content_threat_detection_protect_xss(self, value, **kwargs): # noqa: E501
"""Protect text input from Cross-Site-Scripting (XSS) attacks through normalization # noqa: E501
Detects and removes XSS (Cross-Site-Scripting) attacks from text input through normalization. Returns the normalized result, as well as information on whether the original input contained an XSS risk. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_protect_xss(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringXssProtectionResult
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('async_req'):
return self.content_threat_detection_protect_xss_with_http_info(value, **kwargs) # noqa: E501
else:
(data) = self.content_threat_detection_protect_xss_with_http_info(value, **kwargs) # noqa: E501
return data
def content_threat_detection_protect_xss_with_http_info(self, value, **kwargs): # noqa: E501
"""Protect text input from Cross-Site-Scripting (XSS) attacks through normalization # noqa: E501
Detects and removes XSS (Cross-Site-Scripting) attacks from text input through normalization. Returns the normalized result, as well as information on whether the original input contained an XSS risk. # noqa: E501
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please pass async_req=True
>>> thread = api.content_threat_detection_protect_xss_with_http_info(value, async_req=True)
>>> result = thread.get()
:param async_req bool
:param str value: User-facing text input. (required)
:return: StringXssProtectionResult
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['value'] # noqa: E501
all_params.append('async_req')
all_params.append('_return_http_data_only')
all_params.append('_preload_content')
all_params.append('_request_timeout')
params = locals()
for key, val in six.iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method content_threat_detection_protect_xss" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'value' is set
if ('value' not in params or
params['value'] is None):
raise ValueError("Missing the required parameter `value` when calling `content_threat_detection_protect_xss`") # noqa: E501
collection_formats = {}
path_params = {}
query_params = []
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'value' in params:
body_params = params['value']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.select_header_accept(
['application/json', 'text/json', 'application/xml', 'text/xml']) # noqa: E501
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.select_header_content_type( # noqa: E501
['application/json', 'text/json']) # noqa: E501
# Authentication setting
auth_settings = ['Apikey'] # noqa: E501
return self.api_client.call_api(
'/security/threat-detection/content/xss/detect/string', 'POST',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='StringXssProtectionResult', # noqa: E501
auth_settings=auth_settings,
async_req=params.get('async_req'),
_return_http_data_only=params.get('_return_http_data_only'),
_preload_content=params.get('_preload_content', True),
_request_timeout=params.get('_request_timeout'),
collection_formats=collection_formats)
| 43.613208 | 249 | 0.644733 | 2,638 | 23,115 | 5.390068 | 0.076573 | 0.04276 | 0.061889 | 0.026725 | 0.951825 | 0.949996 | 0.949082 | 0.938674 | 0.927984 | 0.925241 | 0 | 0.013921 | 0.269695 | 23,115 | 529 | 250 | 43.695652 | 0.828387 | 0.354878 | 0 | 0.806452 | 1 | 0 | 0.21294 | 0.093436 | 0 | 0 | 0 | 0 | 0 | 1 | 0.039427 | false | 0 | 0.014337 | 0 | 0.111111 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
e2925ec56b19b5bb722db7b942d05a0652f36c22 | 52,468 | py | Python | test/integration/component/test_project_configs.py | Codegass/cloudstack | 71056191f2bdad4be1a7eaf9bb73a7dcee3516f2 | [
"Apache-2.0"
] | 1,131 | 2015-01-08T18:59:06.000Z | 2022-03-29T11:31:10.000Z | test/integration/component/test_project_configs.py | Codegass/cloudstack | 71056191f2bdad4be1a7eaf9bb73a7dcee3516f2 | [
"Apache-2.0"
] | 5,908 | 2015-01-13T15:28:37.000Z | 2022-03-31T20:31:07.000Z | test/integration/component/test_project_configs.py | Codegass/cloudstack | 71056191f2bdad4be1a7eaf9bb73a7dcee3516f2 | [
"Apache-2.0"
] | 1,083 | 2015-01-05T01:16:52.000Z | 2022-03-31T12:14:10.000Z | # Licensed to the Apache Software Foundation (ASF) under one
# or more contributor license agreements. See the NOTICE file
# distributed with this work for additional information
# regarding copyright ownership. The ASF licenses this file
# to you under the Apache License, Version 2.0 (the
# "License"); you may not use this file except in compliance
# with the License. You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing,
# software distributed under the License is distributed on an
# "AS IS" BASIS, WITHOUT WARRANTIES OR CONDITIONS OF ANY
# KIND, either express or implied. See the License for the
# specific language governing permissions and limitations
# under the License.
""" P1 tests for Project
"""
#Import Local Modules
import marvin
from nose.plugins.attrib import attr
from marvin.cloudstackTestCase import *
from marvin.cloudstackAPI import *
from marvin.lib.utils import *
from marvin.lib.base import *
from marvin.lib.common import *
from marvin.sshClient import SshClient
import datetime
class TestUserProjectCreation(cloudstackTestCase):
@classmethod
def setUpClass(cls):
cls.testClient = super(TestUserProjectCreation, cls).getClsTestClient()
cls.api_client = cls.testClient.getApiClient()
cls.testdata = cls.testClient.getParsedTestDataConfig()
cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests())
cls.testdata['mode'] = cls.zone.networktype
configs = Configurations.list(
cls.api_client,
name='allow.user.create.projects'
)
if not isinstance(configs, list):
raise unittest.SkipTest("List configurations has no config: allow.user.create.projects")
elif (configs[0].value).lower() != 'true':
raise unittest.SkipTest("'allow.user.create.projects' should be true")
# Create domains, account etc.
cls.domain = Domain.create(
cls.api_client,
cls.testdata["domain"]
)
cls.account = Account.create(
cls.api_client,
cls.testdata["account"],
admin=True,
domainid=cls.domain.id
)
cls.user = Account.create(
cls.api_client,
cls.testdata["account"],
admin=True,
domainid=cls.domain.id
)
cls._cleanup = [cls.account, cls.user, cls.domain]
return
@classmethod
def tearDownClass(cls):
try:
#Cleanup resources used
cleanup_resources(cls.api_client, cls._cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
def setUp(self):
self.apiclient = self.testClient.getApiClient()
self.dbclient = self.testClient.getDbConnection()
self.cleanup = []
return
def tearDown(self):
try:
#Clean up, terminate the created accounts, domains etc
cleanup_resources(self.apiclient, self.cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
@attr(configuration = "allow.user.create.projects")
@attr(tags=["advanced", "basic", "sg", "eip", "advancedns", "simulator"], required_hardware="false")
def test_admin_project_creation(self):
"""Test create project as a domain admin and domain user
"""
# Validate the following
# 1. Check if 'allow.user.create.projects' configuration is true
# 2. Create a Project as domain admin
# 3. Create a Project as domain user
# 4. In both 2 and 3 project creation should be successful
configs = Configurations.list(
self.apiclient,
name='allow.user.create.projects'
)
self.assertEqual(
isinstance(configs, list),
True,
"Check for a valid list configurations response"
)
config = configs[0]
self.assertEqual(
(config.value).lower(),
'true',
"'allow.user.create.projects' should be true"
)
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.user.name,
domainid=self.user.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain user with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
return
class TestProjectCreationNegative(cloudstackTestCase):
@classmethod
def setUpClass(cls):
cls.testClient = super(TestProjectCreationNegative, cls).getClsTestClient()
cls.api_client = cls.testClient.getApiClient()
cls.testdata = cls.testClient.getParsedTestDataConfig()
cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests())
cls.testdata['mode'] = cls.zone.networktype
# Checking for prereqisits - global configs
configs = Configurations.list(
cls.api_client,
name='allow.user.create.projects'
)
if not isinstance(configs, list):
raise unittest.SkipTest("List configurations has no config: allow.user.create.projects")
elif (configs[0].value).lower() != 'false':
raise unittest.SkipTest("'allow.user.create.projects' should be false")
# Create domains, account etc.
cls.domain = Domain.create(
cls.api_client,
cls.testdata["domain"]
)
cls.account = Account.create(
cls.api_client,
cls.testdata["account"],
admin=True,
domainid=cls.domain.id
)
cls.user = Account.create(
cls.api_client,
cls.testdata["account"],
admin=True,
domainid=cls.domain.id
)
cls._cleanup = [cls.account, cls.user, cls.domain]
return
@classmethod
def tearDownClass(cls):
try:
#Cleanup resources used
cleanup_resources(cls.api_client, cls._cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
def setUp(self):
self.apiclient = self.testClient.getApiClient()
self.dbclient = self.testClient.getDbConnection()
self.cleanup = []
return
def tearDown(self):
try:
#Clean up, terminate the created accounts, domains etc
cleanup_resources(self.apiclient, self.cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
@attr(configuration = "allow.user.create.projects")
@attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"])
def test_user_project_creation(self):
"""Test create project as a domain admin and domain user
"""
# Validate the following
# 1. Check if 'allow.user.create.projects' configuration is false
# 2. Create a Project as domain admin. Project creation should be
# successful.
# 3. Create a Project as domain user. Project creation should fail
configs = Configurations.list(
self.apiclient,
name='allow.user.create.projects'
)
self.assertEqual(
isinstance(configs, list),
True,
"Check for a valid list configurations response"
)
config = configs[0]
self.assertEqual(
(config.value).lower(),
'false',
"'allow.user.create.projects' should be true"
)
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
with self.assertRaises(Exception):
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.user.name,
domainid=self.user.domainid
)
self.debug("Project creation with domain user: %s failed" %
self.user.name)
return
class TestProjectInviteRequired(cloudstackTestCase):
@classmethod
def setUpClass(cls):
cls.testClient = super(TestProjectInviteRequired, cls).getClsTestClient()
cls.api_client = cls.testClient.getApiClient()
cls.testdata = cls.testClient.getParsedTestDataConfig()
cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests())
cls.testdata['mode'] = cls.zone.networktype
# Create domains, account etc.
cls.domain = get_domain(cls.api_client)
# Verify 'project.invite.required' is set to false
configs = Configurations.list(
cls.api_client,
name='project.invite.required'
)
if not isinstance(configs, list):
raise unittest.SkipTest("The 'project.invite.required' is not found in global configs")
elif (configs[0].value).lower() != 'false':
raise unittest.SkipTest("'project.invite.required' should be false")
cls.account = Account.create(
cls.api_client,
cls.testdata["account"],
admin=True,
domainid=cls.domain.id
)
cls.user = Account.create(
cls.api_client,
cls.testdata["user"],
admin=True,
domainid=cls.domain.id
)
cls._cleanup = [cls.account, cls.user]
return
@classmethod
def tearDownClass(cls):
try:
#Cleanup resources used
cleanup_resources(cls.api_client, cls._cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
def setUp(self):
self.apiclient = self.testClient.getApiClient()
self.dbclient = self.testClient.getDbConnection()
self.cleanup = []
return
def tearDown(self):
try:
#Clean up, terminate the created accounts, domains etc
cleanup_resources(self.apiclient, self.cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
@attr(tags=["advanced", "basic", "sg", "eip", "advancedns"], required_hardware="false")
def test_add_user_to_project(self):
"""Add user to project when 'project.invite.required' is false"""
# Validate the following:
# 1. Create a Project
# 2. Add users to the project. Verify user is added to project
# as regular user
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
self.debug("Adding %s user to project: %s" % (
self.user.name,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
self.user.name,
self.user.user[0].email
)
# listProjectAccount to verify the user is added to project or not
accounts_reponse = Project.listAccounts(
self.apiclient,
projectid=project.id,
account=self.user.name,
)
self.debug(accounts_reponse)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.role,
'Regular',
"Newly added user is not added as a regular user"
)
return
class TestProjectInviteRequiredTrue(cloudstackTestCase):
@classmethod
def setUpClass(cls):
cls.testClient = super(TestProjectInviteRequiredTrue, cls).getClsTestClient()
cls.api_client = cls.testClient.getApiClient()
cls.testdata = cls.testClient.getParsedTestDataConfig()
cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests())
cls.testdata['mode'] = cls.zone.networktype
# Create domains, account etc.
cls.domain = get_domain(cls.api_client)
# Verify 'project.invite.required' is set to true
configs = Configurations.list(
cls.api_client,
name='project.invite.required'
)
if not isinstance(configs, list):
raise unittest.SkipTest("The 'project.invite.required' is not found in global configs")
elif (configs[0].value).lower() != 'true':
raise unittest.SkipTest("'project.invite.required' should be true")
cls.account = Account.create(
cls.api_client,
cls.testdata["account"],
admin=True,
domainid=cls.domain.id
)
cls.user = Account.create(
cls.api_client,
cls.testdata["user"],
admin=True,
domainid=cls.domain.id
)
cls._cleanup = [cls.account, cls.user]
return
@classmethod
def tearDownClass(cls):
try:
#Cleanup resources used
cleanup_resources(cls.api_client, cls._cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
def setUp(self):
self.apiclient = self.testClient.getApiClient()
self.dbclient = self.testClient.getDbConnection()
self.cleanup = []
return
def tearDown(self):
try:
#Clean up, terminate the created accounts, domains etc
cleanup_resources(self.apiclient, self.cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
@attr(configuration = "project.invite.required")
@attr(tags=["advanced", "basic", "sg", "eip", "advancedns"], required_hardware="false")
def test_add_user_to_project(self):
"""Add user to project when 'project.invite.required' is true"""
# Validate the following:
# 1. Create a Project
# 2. Add users to the project. verify user is shown in pending state
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
self.debug("Adding %s user to project: %s" % (
self.user.name,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
self.user.name,
self.user.user[0].email
)
# listProjectAccount to verify the user is added to project or not
accounts_reponse = ProjectInvitation.list(
self.apiclient,
state='Pending',
account=self.user.name,
domainid=self.user.domainid
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.state,
'Pending',
"Newly added user is not added as a regular user"
)
return
class TestProjectInviteTimeout(cloudstackTestCase):
@classmethod
def setUpClass(cls):
cls.testClient = super(TestProjectInviteTimeout, cls).getClsTestClient()
cls.api_client = cls.testClient.getApiClient()
cls.testdata = cls.testClient.getParsedTestDataConfig()
cls.zone = get_zone(cls.api_client, cls.testClient.getZoneForTests())
cls.testdata['mode'] = cls.zone.networktype
# Create domains, account etc.
cls.domain = get_domain(cls.api_client)
# Verify 'project.invite.required' is set to true
configs = Configurations.list(
cls.api_client,
name='project.invite.required'
)
if not isinstance(configs, list):
raise unittest.SkipTest("The 'project.invite.required' is not found in global configs")
elif (configs[0].value).lower() != 'true':
raise unittest.SkipTest("'project.invite.required' should be true")
# Verify 'project.invite.timeout' is set to 300
configs = Configurations.list(
cls.api_client,
name='project.invite.timeout'
)
if not isinstance(configs, list):
raise unittest.SkipTest("The 'project.invite.timeout' is not found in global configs")
elif int(configs[0].value) != cls.testdata["configs"]["project.invite.timeout"]:
raise unittest.SkipTest("'project.invite.timeout' should be: %s " %
cls.testdata["configs"]["project.invite.timeout"])
cls.config = configs[0]
cls.account = Account.create(
cls.api_client,
cls.testdata["account"],
admin=True,
domainid=cls.domain.id
)
cls.user = Account.create(
cls.api_client,
cls.testdata["user"],
admin=True,
domainid=cls.domain.id
)
cls._cleanup = [cls.account, cls.user]
return
@classmethod
def tearDownClass(cls):
try:
#Cleanup resources used
cleanup_resources(cls.api_client, cls._cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
def setUp(self):
self.apiclient = self.testClient.getApiClient()
self.dbclient = self.testClient.getDbConnection()
self.cleanup = []
return
def tearDown(self):
try:
#Clean up, terminate the created accounts, domains etc
cleanup_resources(self.apiclient, self.cleanup)
except Exception as e:
raise Exception("Warning: Exception during cleanup : %s" % e)
return
@attr(configuration = "project.invite.timeout")
@attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"])
def test_01_invitation_timeout(self):
"""Test global config project invitation timeout"""
# Validate the following:
# 1. Set configuration to 5 mins
# 2. Create a Project
# 3. Add users to the project
# 4. As a user accept invitation within 5 mins. Verify invitation is
# accepted and user become regular user of project
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
self.debug("Adding %s user to project: %s" % (
self.user.name,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
self.user.name,
self.user.user[0].email
)
# listProjectAccount to verify the user is added to project or not
accounts_reponse = ProjectInvitation.list(
self.apiclient,
state='Pending',
account=self.user.name,
domainid=self.user.domainid
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.state,
'Pending',
"Newly added user is not added as a regular user"
)
# Accept the invite
ProjectInvitation.update(
self.apiclient,
projectid=project.id,
accept=True,
account=self.user.name
)
self.debug(
"Accepting project invitation for project: %s user: %s" % (
project.name,
self.user.name
))
# listProjectAccount to verify the user is added to project or not
accounts_reponse = Project.listAccounts(
self.apiclient,
projectid=project.id,
account=self.user.name,
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.role,
'Regular',
"Newly added user is not added as a regular user"
)
return
@attr(configuration = "project.invite.timeout")
@attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"])
def test_02_invitation_timeout_after_expiry(self):
"""Test global config project invitation timeout"""
# Validate the following:
# 1. Set configuration to 5 mins
# 2. Create a Project
# 3. Add users to the project
# 4. As a user accept invitation after 5 mins. Verify invitation is
# not accepted and is shown as expired
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
self.debug("Adding %s user to project: %s" % (
self.user.name,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
self.user.name,
self.user.email
)
# listProjectAccount to verify the user is added to project or not
accounts_reponse = ProjectInvitation.list(
self.apiclient,
state='Pending',
account=self.user.name,
domainid=self.user.domainid
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.state,
'Pending',
"Newly added user is not added as a regular user"
)
# sleep for 'project.invite.timeout' * 2 interval to wait for invite
# to expire
time.sleep(int(self.config.value) * 2)
with self.assertRaises(Exception):
# Accept the invite
ProjectInvitation.update(
self.apiclient,
projectid=project.id,
accept=True,
account=self.user.name
)
self.debug(
"Accepting invitation after expiry project: %s user: %s" % (
project.name,
self.user.name
))
# listProjectAccount to verify the user is added to project or not
accounts_reponse = ProjectInvitation.list(
self.apiclient,
account=self.user.name,
domainid=self.user.domainid
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.state,
'Expired',
"Newly added user is not added as a regular user"
)
return
@attr(configuration = "project.invite.timeout")
@attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"])
def test_03_invite_after_expiry(self):
"""Test global config project invitation timeout"""
# Validate the following:
# 1. Set configuration to 5 mins
# 2. Create a Project
# 3. Add users to the project
# 4. As a user accept invitation after 5 mins.
# 5. Resend the invitation
# 6. Verify invitation is sent again
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
self.debug("Adding %s user to project: %s" % (
self.user.name,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
self.user.name,
self.user.email
)
# listProjectAccount to verify the user is added to project or not
accounts_reponse = ProjectInvitation.list(
self.apiclient,
state='Pending',
account=self.user.name,
domainid=self.user.domainid
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.state,
'Pending',
"Newly added user is not added as a regular user"
)
# sleep for 'project.invite.timeout' * 2 interval to wait for invite
# to expire
time.sleep(int(self.config.value) * 2)
self.debug("Adding %s user again to project: %s" % (
self.user.name,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
self.user.name,
self.user.email
)
# listProjectAccount to verify the user is added to project or not
accounts_reponse = ProjectInvitation.list(
self.apiclient,
state='Pending',
account=self.user.name,
domainid=self.user.domainid
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.state,
'Pending',
"Newly added user is not added as a regular user"
)
return
@attr(configuration = "project.invite.timeout")
@attr(tags = ["advanced", "basic", "sg", "eip", "advancedns", "simulator"])
def test_04_decline_invitation(self):
"""Test decline invitation"""
# Validate the following:
# 1. Set configuration to 5 mins
# 2. Create a Project
# 3. Add users to the project
# 4. As a user decline invitation within 5 mins.
# 5. Verify invitation is rejected and user doesn't become regular
# user.
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
self.debug("Adding %s user to project: %s" % (
self.user.name,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
self.user.name,
self.user.email
)
# listProjectAccount to verify the user is added to project or not
accounts_reponse = ProjectInvitation.list(
self.apiclient,
state='Pending',
account=self.user.name,
domainid=self.user.domainid
)
self.assertEqual(
isinstance(accounts_reponse, list),
True,
"Check for a valid list accounts response"
)
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
account = accounts_reponse[0]
self.assertEqual(
account.state,
'Pending',
"Newly added user is not added as a regular user"
)
# Accept the invite
ProjectInvitation.update(
self.apiclient,
projectid=project.id,
accept=False,
account=self.user.name
)
self.debug(
"Declining invitation for project: %s user: %s" % (
project.name,
self.user.name
))
# listProjectAccount to verify the user is added to project or not
accounts_reponse = Project.listAccounts(
self.apiclient,
projectid=project.id,
account=self.user.name,
)
self.assertEqual(
accounts_reponse,
None,
"Check for a valid list accounts response"
)
return
def test_09_invite_to_project_by_email(self):
"""Test invite user to project by email"""
# Validate the following:
# 1. Set configuration to 5 mins
# 2. Create a Project
# 3. Add users to the project
# 4. As a user decline invitation within 5 mins.
# 5. Verify invitation is rejected and user doesn't become regular
# user.
# Verify 'project.invite.required' is set to false
configs = Configurations.list(
self.apiclient,
name='project.invite.timeout'
)
self.assertEqual(
isinstance(configs, list),
True,
"Check for a valid list configurations response"
)
config = configs[0]
self.assertEqual(
int(config.value),
self.testdata["configs"]["project.invite.timeout"],
"'project.invite.timeout' should be %s" %
self.testdata["configs"]["project.invite.timeout"]
)
# Create project as a domain admin
project = Project.create(
self.apiclient,
self.testdata["project"],
account=self.account.name,
domainid=self.account.domainid
)
# Cleanup created project at end of test
self.cleanup.append(project)
self.debug("Created project with domain admin with ID: %s" %
project.id)
list_projects_reponse = Project.list(
self.apiclient,
id=project.id,
listall=True
)
self.assertEqual(
isinstance(list_projects_reponse, list),
True,
"Check for a valid list projects response"
)
list_project = list_projects_reponse[0]
self.assertNotEqual(
len(list_projects_reponse),
0,
"Check list project response returns a valid project"
)
self.assertEqual(
project.name,
list_project.name,
"Check project name from list response"
)
self.debug("Adding user with email: %s to project: %s" % (
self.user.email,
project.name
))
# Add user to the project
project.addAccount(
self.apiclient,
email=self.user.user[0].email
)
# Fetch the latest mail sent to user
mail_content = fetch_latest_mail(
self.testdata["mail_account"],
from_mail=self.user.user[0].email
)
return
| 40.453354 | 104 | 0.439982 | 4,182 | 52,468 | 5.45935 | 0.062889 | 0.03101 | 0.040778 | 0.025404 | 0.911568 | 0.90088 | 0.889405 | 0.881827 | 0.866585 | 0.857956 | 0 | 0.004607 | 0.495292 | 52,468 | 1,296 | 105 | 40.484568 | 0.857558 | 0.106999 | 0 | 0.807216 | 0 | 0 | 0.123768 | 0.018299 | 0 | 0 | 0 | 0 | 0.06701 | 1 | 0.029897 | false | 0 | 0.009278 | 0 | 0.074227 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
2cb978422e97f0f0164749c4af00d63d584a415c | 134 | py | Python | trainer/__init__.py | bhadreshpsavani/TAPER-EHR | ab938749756fcaaef52a7002a074421f483e3562 | [
"MIT"
] | 12 | 2020-04-10T02:24:20.000Z | 2021-11-09T22:52:24.000Z | trainer/__init__.py | bhadreshpsavani/TAPER-EHR | ab938749756fcaaef52a7002a074421f483e3562 | [
"MIT"
] | 7 | 2020-05-03T10:03:29.000Z | 2022-02-09T23:38:21.000Z | trainer/__init__.py | bhadreshpsavani/TAPER-EHR | ab938749756fcaaef52a7002a074421f483e3562 | [
"MIT"
] | 10 | 2020-06-14T09:37:35.000Z | 2022-02-04T22:21:16.000Z | from .trainer import *
from .seqcode_trainer import *
from .classification_trainer import *
from .text_summarization_trainer import *
| 26.8 | 41 | 0.820896 | 16 | 134 | 6.625 | 0.4375 | 0.490566 | 0.481132 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.119403 | 134 | 4 | 42 | 33.5 | 0.898305 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
2cccaa0b388d1a46f3b36dafb92f1824ef5b01ca | 95 | py | Python | app/routes/__init__.py | ericduwe/python-newsfeed | a82243cb604f56de8a3dc19848e774abd793eec9 | [
"MIT"
] | 1 | 2021-12-20T00:54:38.000Z | 2021-12-20T00:54:38.000Z | app/routes/__init__.py | ericduwe/python-newsfeed | a82243cb604f56de8a3dc19848e774abd793eec9 | [
"MIT"
] | 7 | 2021-05-31T18:36:56.000Z | 2021-06-06T09:22:46.000Z | app/routes/__init__.py | andrewbyoo/python-newsfeed | ab2f24c32836309918d0ee1996d1f9ef6a96b9df | [
"MIT"
] | 1 | 2021-02-17T16:15:40.000Z | 2021-02-17T16:15:40.000Z | from .home import bp as home
from .dashboard import bp as dashboard
from .api import bp as api
| 23.75 | 38 | 0.778947 | 18 | 95 | 4.111111 | 0.388889 | 0.324324 | 0.405405 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.189474 | 95 | 3 | 39 | 31.666667 | 0.961039 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
e2dd865565cc0a9452c33499d4dfeab6f1cf3521 | 38,173 | py | Python | mangopay/migrations/0001_initial.py | sladinji/blousebrothers | 461de3ba011c0aaed3f0014136c4497b6890d086 | [
"MIT"
] | 1 | 2022-01-27T11:58:10.000Z | 2022-01-27T11:58:10.000Z | mangopay/migrations/0001_initial.py | sladinji/blousebrothers | 461de3ba011c0aaed3f0014136c4497b6890d086 | [
"MIT"
] | 5 | 2021-03-19T00:01:54.000Z | 2022-03-11T23:46:21.000Z | mangopay/migrations/0001_initial.py | sladinji/blousebrothers | 461de3ba011c0aaed3f0014136c4497b6890d086 | [
"MIT"
] | null | null | null | # -*- coding: utf-8 -*-
# Generated by Django 1.9.7 on 2016-11-09 16:28
from __future__ import unicode_literals
from decimal import Decimal
from django.conf import settings
from django.db import migrations, models
import django.db.models.deletion
import django_countries.fields
import django_filepicker.models
import djmoney.models.fields
import jsonfield.fields
import localflavor.generic.models
class Migration(migrations.Migration):
initial = True
dependencies = [
migrations.swappable_dependency(settings.AUTH_USER_MODEL),
]
operations = [
migrations.CreateModel(
name='MangoPayBankAccount',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('address', models.CharField(max_length=254)),
('account_type', models.CharField(choices=[('BI', 'BIC & IBAN'), ('US', 'Local US Format'), ('O', 'Other')], default='BI', max_length=2)),
('iban', localflavor.generic.models.IBANField(blank=True, max_length=34, null=True)),
('bic', localflavor.generic.models.BICField(blank=True, max_length=11, null=True)),
('country', django_countries.fields.CountryField(blank=True, max_length=2, null=True)),
('account_number', models.CharField(blank=True, max_length=15, null=True)),
('aba', models.CharField(blank=True, max_length=9, null=True)),
('deposit_account_type', models.CharField(blank=True, choices=[('CHECKING', 'Checking'), ('SAVINGS', 'Savings')], max_length=8, null=True)),
],
),
migrations.CreateModel(
name='MangoPayCard',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('expiration_date', models.CharField(blank=True, max_length=4, null=True)),
('alias', models.CharField(blank=True, max_length=16, null=True)),
('is_active', models.BooleanField(default=False)),
('is_valid', models.NullBooleanField()),
],
),
migrations.CreateModel(
name='MangoPayCardRegistration',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('mangopay_card', models.OneToOneField(blank=True, null=True, on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_card_registration', to='mangopay.MangoPayCard')),
],
),
migrations.CreateModel(
name='MangoPayDocument',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('type', models.CharField(choices=[('IP', 'IDENTITY_PROOF'), ('RP', 'REGISTRATION_PROOF'), ('AA', 'ARTICLES_OF_ASSOCIATION'), ('SD', 'SHAREHOLDER_DECLARATION'), ('AP', 'ADDRESS_PROOF')], max_length=2)),
('status', models.CharField(blank=True, choices=[('C', 'CREATED'), ('A', 'VALIDATION_ASKED'), ('V', 'VALIDATED'), ('R', 'REFUSED')], max_length=1, null=True)),
('refused_reason_message', models.CharField(blank=True, max_length=255, null=True)),
],
),
migrations.CreateModel(
name='MangoPayPage',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('file', django_filepicker.models.FPUrlField(max_length=255)),
('document', models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_pages', to='mangopay.MangoPayDocument')),
],
),
migrations.CreateModel(
name='MangoPayPayIn',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('execution_date', models.DateTimeField(blank=True, null=True)),
('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)),
('debited_funds_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)),
('debited_funds', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)),
('fees_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)),
('result_code', models.CharField(blank=True, max_length=6, null=True)),
('fees', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)),
('type', models.CharField(choices=[('bank-wire', 'Pay in by BankWire'), ('card-web', 'Pay in by card via web')], max_length=10)),
('secure_mode_redirect_url', models.URLField(blank=True, null=True)),
('wire_reference', models.CharField(blank=True, max_length=50, null=True)),
('mangopay_bank_account', jsonfield.fields.JSONField(blank=True, null=True)),
('mangopay_card', models.ForeignKey(blank=True, null=True, on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payins', to='mangopay.MangoPayCard')),
],
),
migrations.CreateModel(
name='MangoPayPayOut',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('execution_date', models.DateTimeField(blank=True, null=True)),
('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)),
('debited_funds_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)),
('debited_funds', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)),
('fees_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)),
('fees', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)),
('mangopay_bank_account', models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payouts', to='mangopay.MangoPayBankAccount')),
],
),
migrations.CreateModel(
name='MangoPayRefund',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('execution_date', models.DateTimeField(blank=True, null=True)),
('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)),
('result_code', models.CharField(blank=True, max_length=6, null=True)),
('mangopay_pay_in', models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_refunds', to='mangopay.MangoPayPayIn')),
],
),
migrations.CreateModel(
name='MangoPayTransfer',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('debited_funds_currency', djmoney.models.fields.CurrencyField(choices=[('AFN', 'Afghani'), ('DZD', 'Algerian Dinar'), ('ARS', 'Argentine Peso'), ('AMD', 'Armenian Dram'), ('AWG', 'Aruban Guilder'), ('AUD', 'Australian Dollar'), ('AZN', 'Azerbaijanian Manat'), ('BSD', 'Bahamian Dollar'), ('BHD', 'Bahraini Dinar'), ('THB', 'Baht'), ('BBD', 'Barbados Dollar'), ('BYR', 'Belarussian Ruble'), ('BZD', 'Belize Dollar'), ('BMD', 'Bermudian Dollar (customarily known as Bermuda Dollar)'), ('BTN', 'Bhutanese ngultrum'), ('VEF', 'Bolivar Fuerte'), ('XBA', 'Bond Markets Units European Composite Unit (EURCO)'), ('BRL', 'Brazilian Real'), ('BND', 'Brunei Dollar'), ('BGN', 'Bulgarian Lev'), ('BIF', 'Burundi Franc'), ('XOF', 'CFA Franc BCEAO'), ('XAF', 'CFA franc BEAC'), ('XPF', 'CFP Franc'), ('CAD', 'Canadian Dollar'), ('CVE', 'Cape Verde Escudo'), ('KYD', 'Cayman Islands Dollar'), ('CLP', 'Chilean peso'), ('XTS', 'Codes specifically reserved for testing purposes'), ('COP', 'Colombian peso'), ('KMF', 'Comoro Franc'), ('CDF', 'Congolese franc'), ('BAM', 'Convertible Marks'), ('NIO', 'Cordoba Oro'), ('CRC', 'Costa Rican Colon'), ('HRK', 'Croatian Kuna'), ('CUP', 'Cuban Peso'), ('CUC', 'Cuban convertible peso'), ('CZK', 'Czech Koruna'), ('GMD', 'Dalasi'), ('DKK', 'Danish Krone'), ('MKD', 'Denar'), ('DJF', 'Djibouti Franc'), ('STD', 'Dobra'), ('DOP', 'Dominican Peso'), ('VND', 'Dong'), ('XCD', 'East Caribbean Dollar'), ('EGP', 'Egyptian Pound'), ('ETB', 'Ethiopian Birr'), ('EUR', 'Euro'), ('XBB', 'European Monetary Unit (E.M.U.-6)'), ('XBD', 'European Unit of Account 17(E.U.A.-17)'), ('XBC', 'European Unit of Account 9(E.U.A.-9)'), ('FKP', 'Falkland Islands Pound'), ('FJD', 'Fiji Dollar'), ('HUF', 'Forint'), ('GHS', 'Ghana Cedi'), ('GIP', 'Gibraltar Pound'), ('XAU', 'Gold'), ('XFO', 'Gold-Franc'), ('PYG', 'Guarani'), ('GNF', 'Guinea Franc'), ('GYD', 'Guyana Dollar'), ('HTG', 'Haitian gourde'), ('HKD', 'Hong Kong Dollar'), ('UAH', 'Hryvnia'), ('ISK', 'Iceland Krona'), ('INR', 'Indian Rupee'), ('IRR', 'Iranian Rial'), ('IQD', 'Iraqi Dinar'), ('IMP', 'Isle of Man pount'), ('JMD', 'Jamaican Dollar'), ('JOD', 'Jordanian Dinar'), ('KES', 'Kenyan Shilling'), ('PGK', 'Kina'), ('LAK', 'Kip'), ('KWD', 'Kuwaiti Dinar'), ('AOA', 'Kwanza'), ('MMK', 'Kyat'), ('GEL', 'Lari'), ('LVL', 'Latvian Lats'), ('LBP', 'Lebanese Pound'), ('ALL', 'Lek'), ('HNL', 'Lempira'), ('SLL', 'Leone'), ('LSL', 'Lesotho loti'), ('LRD', 'Liberian Dollar'), ('LYD', 'Libyan Dinar'), ('SZL', 'Lilangeni'), ('LTL', 'Lithuanian Litas'), ('MGA', 'Malagasy Ariary'), ('MWK', 'Malawian Kwacha'), ('MYR', 'Malaysian Ringgit'), ('TMM', 'Manat'), ('MUR', 'Mauritius Rupee'), ('MZN', 'Metical'), ('MXN', 'Mexican peso'), ('MDL', 'Moldovan Leu'), ('MAD', 'Moroccan Dirham'), ('NGN', 'Naira'), ('ERN', 'Nakfa'), ('NAD', 'Namibian Dollar'), ('NPR', 'Nepalese Rupee'), ('ANG', 'Netherlands Antillian Guilder'), ('ILS', 'New Israeli Sheqel'), ('RON', 'New Leu'), ('TWD', 'New Taiwan Dollar'), ('NZD', 'New Zealand Dollar'), ('KPW', 'North Korean Won'), ('NOK', 'Norwegian Krone'), ('PEN', 'Nuevo Sol'), ('MRO', 'Ouguiya'), ('TOP', 'Paanga'), ('PKR', 'Pakistan Rupee'), ('XPD', 'Palladium'), ('MOP', 'Pataca'), ('PHP', 'Philippine Peso'), ('XPT', 'Platinum'), ('GBP', 'Pound Sterling'), ('BWP', 'Pula'), ('QAR', 'Qatari Rial'), ('GTQ', 'Quetzal'), ('ZAR', 'Rand'), ('OMR', 'Rial Omani'), ('KHR', 'Riel'), ('MVR', 'Rufiyaa'), ('IDR', 'Rupiah'), ('RUB', 'Russian Ruble'), ('RWF', 'Rwanda Franc'), ('XDR', 'SDR'), ('SHP', 'Saint Helena Pound'), ('SAR', 'Saudi Riyal'), ('RSD', 'Serbian Dinar'), ('SCR', 'Seychelles Rupee'), ('XAG', 'Silver'), ('SGD', 'Singapore Dollar'), ('SBD', 'Solomon Islands Dollar'), ('KGS', 'Som'), ('SOS', 'Somali Shilling'), ('TJS', 'Somoni'), ('LKR', 'Sri Lanka Rupee'), ('SDG', 'Sudanese Pound'), ('SRD', 'Surinam Dollar'), ('SEK', 'Swedish Krona'), ('CHF', 'Swiss Franc'), ('SYP', 'Syrian Pound'), ('BDT', 'Taka'), ('WST', 'Tala'), ('TZS', 'Tanzanian Shilling'), ('KZT', 'Tenge'), ('TTD', 'Trinidad and Tobago Dollar'), ('MNT', 'Tugrik'), ('TND', 'Tunisian Dinar'), ('TRY', 'Turkish Lira'), ('TVD', 'Tuvalu dollar'), ('AED', 'UAE Dirham'), ('XFU', 'UIC-Franc'), ('USD', 'US Dollar'), ('UGX', 'Uganda Shilling'), ('UYU', 'Uruguayan peso'), ('UZS', 'Uzbekistan Sum'), ('VUV', 'Vatu'), ('KRW', 'Won'), ('YER', 'Yemeni Rial'), ('JPY', 'Yen'), ('CNY', 'Yuan Renminbi'), ('ZMK', 'Zambian Kwacha'), ('ZMW', 'Zambian Kwacha'), ('ZWD', 'Zimbabwe Dollar A/06'), ('ZWN', 'Zimbabwe dollar A/08'), ('ZWL', 'Zimbabwe dollar A/09'), ('PLN', 'Zloty')], default='EUR', editable=False, max_length=3)),
('debited_funds', djmoney.models.fields.MoneyField(decimal_places=2, default=Decimal('0'), default_currency='EUR', max_digits=12)),
('execution_date', models.DateTimeField(blank=True, null=True)),
('status', models.CharField(blank=True, choices=[('CREATED', 'The request is created but not processed.'), ('SUCCEEDED', 'The request has been successfully processed.'), ('FAILED', 'The request has failed.')], max_length=9, null=True)),
('result_code', models.CharField(blank=True, max_length=6, null=True)),
],
),
migrations.CreateModel(
name='MangoPayUser',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('create_timestamp', models.DateTimeField(auto_now_add=True, null=True)),
('last_edit_timestamp', models.DateTimeField(auto_now=True, null=True)),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('type', models.CharField(choices=[('N', 'Natural User'), ('B', 'BUSINESS'), ('O', 'ORGANIZATION')], max_length=1, null=True)),
('first_name', models.CharField(blank=True, max_length=99, null=True)),
('last_name', models.CharField(blank=True, max_length=99, null=True)),
('email', models.EmailField(blank=True, max_length=254, null=True)),
('birthday', models.DateField(blank=True, null=True)),
('country_of_residence', django_countries.fields.CountryField(max_length=2)),
('nationality', django_countries.fields.CountryField(max_length=2)),
('address', models.CharField(blank=True, max_length=254, null=True)),
],
),
migrations.CreateModel(
name='MangoPayWallet',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('mangopay_id', models.PositiveIntegerField(blank=True, null=True)),
('currency', models.CharField(default='EUR', max_length=3)),
],
),
migrations.CreateModel(
name='MangoPayLegalUser',
fields=[
('mangopayuser_ptr', models.OneToOneField(auto_created=True, on_delete=django.db.models.deletion.CASCADE, parent_link=True, primary_key=True, serialize=False, to='mangopay.MangoPayUser')),
('business_name', models.CharField(max_length=254)),
('generic_business_email', models.EmailField(max_length=254)),
('headquaters_address', models.CharField(blank=True, max_length=254, null=True)),
],
bases=('mangopay.mangopayuser',),
),
migrations.CreateModel(
name='MangoPayNaturalUser',
fields=[
('mangopayuser_ptr', models.OneToOneField(auto_created=True, on_delete=django.db.models.deletion.CASCADE, parent_link=True, primary_key=True, serialize=False, to='mangopay.MangoPayUser')),
('occupation', models.CharField(blank=True, max_length=254, null=True)),
('income_range', models.SmallIntegerField(blank=True, choices=[(1, '0 - 1,500'), (2, '1,500 - 2,499'), (3, '2,500 - 3,999'), (4, '4,000 - 7,499'), (5, '7,500 - 9,999'), (6, '10,000 +')], null=True)),
],
bases=('mangopay.mangopayuser',),
),
migrations.AddField(
model_name='mangopaywallet',
name='mangopay_user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_wallets', to='mangopay.MangoPayUser'),
),
migrations.AddField(
model_name='mangopayuser',
name='user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_users', to=settings.AUTH_USER_MODEL),
),
migrations.AddField(
model_name='mangopaytransfer',
name='mangopay_credited_wallet',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_credited_wallets', to='mangopay.MangoPayWallet'),
),
migrations.AddField(
model_name='mangopaytransfer',
name='mangopay_debited_wallet',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_debited_wallets', to='mangopay.MangoPayWallet'),
),
migrations.AddField(
model_name='mangopayrefund',
name='mangopay_user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_refunds', to='mangopay.MangoPayUser'),
),
migrations.AddField(
model_name='mangopaypayout',
name='mangopay_user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payouts', to='mangopay.MangoPayUser'),
),
migrations.AddField(
model_name='mangopaypayout',
name='mangopay_wallet',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payouts', to='mangopay.MangoPayWallet'),
),
migrations.AddField(
model_name='mangopaypayin',
name='mangopay_user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payins', to='mangopay.MangoPayUser'),
),
migrations.AddField(
model_name='mangopaypayin',
name='mangopay_wallet',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_payins', to='mangopay.MangoPayWallet'),
),
migrations.AddField(
model_name='mangopaydocument',
name='mangopay_user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_documents', to='mangopay.MangoPayUser'),
),
migrations.AddField(
model_name='mangopaycardregistration',
name='mangopay_user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_card_registrations', to='mangopay.MangoPayUser'),
),
migrations.AddField(
model_name='mangopaybankaccount',
name='mangopay_user',
field=models.ForeignKey(on_delete=django.db.models.deletion.CASCADE, related_name='mangopay_bank_accounts', to='mangopay.MangoPayUser'),
),
migrations.CreateModel(
name='MangoPayPayInBankWire',
fields=[
],
options={
'proxy': True,
},
bases=('mangopay.mangopaypayin',),
),
migrations.CreateModel(
name='MangoPayPayInByCard',
fields=[
],
options={
'proxy': True,
},
bases=('mangopay.mangopaypayin',),
),
]
| 149.113281 | 4,592 | 0.593325 | 4,281 | 38,173 | 5.228451 | 0.1516 | 0.016798 | 0.011259 | 0.019658 | 0.891838 | 0.872224 | 0.853728 | 0.82509 | 0.819908 | 0.817942 | 0 | 0.006723 | 0.162287 | 38,173 | 255 | 4,593 | 149.698039 | 0.693227 | 0.001755 | 0 | 0.611336 | 1 | 0 | 0.444217 | 0.024827 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.040486 | 0 | 0.05668 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 9 |
1a490eeff41c11bb45b3d9c7ae7aa4ef9b58eb2d | 40 | py | Python | src/lib/warnings.py | DTenore/skulpt | 098d20acfb088d6db85535132c324b7ac2f2d212 | [
"MIT"
] | 2,671 | 2015-01-03T08:23:25.000Z | 2022-03-31T06:15:48.000Z | src/lib/warnings.py | wakeupmuyunhe/skulpt | a8fb11a80fb6d7c016bab5dfe3712517a350b347 | [
"MIT"
] | 972 | 2015-01-05T08:11:00.000Z | 2022-03-29T13:47:15.000Z | src/lib/warnings.py | wakeupmuyunhe/skulpt | a8fb11a80fb6d7c016bab5dfe3712517a350b347 | [
"MIT"
] | 845 | 2015-01-03T19:53:36.000Z | 2022-03-29T18:34:22.000Z | import _sk_fail; _sk_fail._("warnings")
| 20 | 39 | 0.775 | 6 | 40 | 4.333333 | 0.666667 | 0.461538 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.075 | 40 | 1 | 40 | 40 | 0.702703 | 0 | 0 | 0 | 0 | 0 | 0.2 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 1 | 0 | null | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
1a6bd7e23e61b82e558c3252ca9559b0da80109c | 178 | py | Python | lattice/nets/__init__.py | WillemGispen/Lattice-QuaRL | 8bdc8bfe2deb2a673249bb7ed9659d2e5819d89e | [
"MIT"
] | 4 | 2021-04-19T10:11:40.000Z | 2021-04-21T13:38:20.000Z | lattice/nets/__init__.py | WillemGispen/Lattice-QuaRL | 8bdc8bfe2deb2a673249bb7ed9659d2e5819d89e | [
"MIT"
] | null | null | null | lattice/nets/__init__.py | WillemGispen/Lattice-QuaRL | 8bdc8bfe2deb2a673249bb7ed9659d2e5819d89e | [
"MIT"
] | 2 | 2021-04-19T13:22:26.000Z | 2021-09-07T14:44:57.000Z | from .periodic_cnn import PeriodicCNN
from .q_periodic_cnn import QPeriodicCNN
from .heisenberg_periodic_cnn import HeisenbergPeriodicCNN
from .passive_rates import PassiveRates
| 35.6 | 58 | 0.88764 | 22 | 178 | 6.909091 | 0.545455 | 0.217105 | 0.335526 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.089888 | 178 | 4 | 59 | 44.5 | 0.938272 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0.25 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 0 | 1 | 0 | 0 | 8 |
46b87f330b093cde0d39dcb4587ee1e4ccd9537c | 11 | py | Python | test/login.py | a1589249266/python-learn | 9bda9581d750f654f9d66150c3a598a282210e79 | [
"BSD-3-Clause"
] | null | null | null | test/login.py | a1589249266/python-learn | 9bda9581d750f654f9d66150c3a598a282210e79 | [
"BSD-3-Clause"
] | null | null | null | test/login.py | a1589249266/python-learn | 9bda9581d750f654f9d66150c3a598a282210e79 | [
"BSD-3-Clause"
] | null | null | null | a=10
b=20
| 2.75 | 4 | 0.545455 | 4 | 11 | 1.5 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.5 | 0.272727 | 11 | 3 | 5 | 3.666667 | 0.25 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 1 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
200a7e6408fd1c4a8c9dc10039aae839ef8c588d | 128,092 | py | Python | tests/databases/generic/v1_test.py | RNAcentral/rnacentral-import-pipeline | 238e573440c72581a051b16c15f56fcd25bece74 | [
"Apache-2.0"
] | 1 | 2018-08-09T14:41:16.000Z | 2018-08-09T14:41:16.000Z | tests/databases/generic/v1_test.py | RNAcentral/rnacentral-import-pipeline | 238e573440c72581a051b16c15f56fcd25bece74 | [
"Apache-2.0"
] | 60 | 2015-02-04T16:43:53.000Z | 2022-01-27T10:28:43.000Z | tests/databases/generic/v1_test.py | RNAcentral/rnacentral-import-pipeline | 238e573440c72581a051b16c15f56fcd25bece74 | [
"Apache-2.0"
] | null | null | null | # -*- coding: utf-8 -*-
"""
Copyright [2009-2017] EMBL-European Bioinformatics Institute
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
"""
import json
import attr
import pytest
from rnacentral_pipeline.databases import data as dat
from rnacentral_pipeline.databases.helpers import publications as pub
from rnacentral_pipeline.databases.generic import v1
@pytest.mark.parametrize(
"filename,taxids",
[ # pylint: disable=no-member
("data/json-schema/v020/flybase.json", [7227, 7227, 7227, 7227, 7227]),
("data/json-schema/v020/flybase-scaRNA.json", [7227]),
("data/json-schema/v020/lincipedia.json", [9606]),
("data/json-schema/v020/tarbase.json", [9606]),
("data/json-schema/v020/pombase.json", [4896]),
("data/json-schema/v020/lncbook.json", [9606, 9606, 9606]),
],
)
def test_can_extract_taxid(filename, taxids):
with open(filename, "r") as raw:
data = json.load(raw)["data"]
assert [v1.taxid(e) for e in data] == taxids
@pytest.mark.parametrize(
"filename,xrefs",
[ # pylint: disable=no-member
("data/json-schema/v020/lincipedia.json", [{"NONCODE": ["NONHSAT050743"]}]),
],
)
def test_can_generate_xref_data(filename, xrefs):
with open(filename, "r") as raw:
data = json.load(raw)["data"]
assert [v1.xrefs(e) for e in data] == xrefs
@pytest.mark.parametrize(
"filename,synonyms",
[ # pylint: disable=no-member
("data/json-schema/v020/pombase.json", {"sno52"}),
],
)
def test_can_extract_gene_symbols_to_synonyms(filename, synonyms):
with open(filename, "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 1
assert set(data[0].gene_synonyms) == synonyms
@pytest.mark.parametrize(
"filename,count",
[ # pylint: disable=no-member
("data/json-schema/v020/flybase.json", 5),
("data/json-schema/v020/lincipedia.json", 1),
("data/json-schema/v020/tarbase.json", 1),
("data/json-schema/v020/lncbook.json", 3),
],
)
def test_can_parse_all_data(filename, count):
with open(filename, "r") as raw:
data = json.load(raw)
assert len(list(v1.parse(data))) == count
def test_can_correctly_parse_data():
with open("data/json-schema/v020/flybase.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
data = [d for d in data if d.accession == "FLYBASE:FBtr0346876"]
assert len(data) == 1
assert attr.asdict(data[0]) == attr.asdict(
dat.Entry(
primary_id="FBtr0346876",
accession="FLYBASE:FBtr0346876",
ncbi_tax_id=7227,
database="FLYBASE",
sequence=(
"TTATATACAACCTCAACTCATATGGGACTACCCCCTGAATTTAAGCATATTAATTAGGGG"
"AGGAAAAGAAACTAACAAGGATTTTCTTAGTAGCGGCGAGCGAAAAGAAAACAGTTCAGC"
"ACTAAGTCACTTTGTCTATATGGCAAATGTGAGATGCAGTGTATGGAGCGTCAATATTCT"
"AGTATGAGAAATTAACGATTTAAGTCCTTCTTAAATGAGGCCATTTACCCATAGAGGGTG"
"CCAGGCCCGTATAACGTTAATGATTACTAGATGATGTTTCCAAAGAGTCGTGTTGCTTGA"
"TAGTGCAGCACTAAGTGGGTGGTAAACTCCATCTAAAACTAAATATAACCATGAGACCGA"
"TAGTAAACAAGTACCGTGAGGGAAAGTTGAAAAGAACTCTGAATAGAGAGTTAAACAGTA"
"CGTGAAACTGCTTAGAGGTTAAGCCCGATGAACCTGAATATCCGTTATGGAAAATTCATC"
"ATTAAAATTGTAATATTTAAATAATATTATGAGAATAGTGTGCATTTTTTCCATATAAGG"
"ACATTGTAATCTATTAGCATATACCAAATTTATCATAAAATATAACTTATAGTTTATTCC"
"AATTAAATTGCTTGCATTTTAACACAGAATAAATGTTATTAATTTGATAAAGTGCTGATA"
"GATTTATATGATTACAGTGCGTTAATTTTTCGGAATTATATAATGGCATAATTATCATTG"
"ATTTTTGTGTTTATTATATGCACTTGTATGATTAACAATGCGAAAGATTCAGGATACCTT"
"CGGGACCCGTCTTGAAACACGGACCAAGGAGTCTAACATATGTGCAAGTTATTGGGATAT"
"AAACCTAATAGCGTAATTAACTTGACTAATAATGGGATTAGTTTTTTAGCTATTTATAGC"
"TGCTAATTAACACAATCCCGGGGCGTTCTATATAGTTATGTATAATGTATATTTATATTA"
"TTTATGCCTCTAACTGGAACGTACCTTGAGCATATATGCTGTGACCCGAAAGATGGTGAA"
"CTATACTTGATCAGGTTGAAGTCAGGGGAAACCCTGATGGAAGACCGAAACAGTTCTGAC"
"GTGCAAATCGATTGTCAGAATTGAGTATAGGGGCGAAAGACCAATCGAACCATCTAGTAG"
"CTGGTTCCTTCCGAAGTTTCCCTCAGGATAGCTGGTGCATTTTAATATTATATAAAATAA"
"TCTTATCTGGTAAAGCGAATGATTAGAGGCCTTAGGGTCGAAACGATCTTAACCTATTCT"
"CAAACTTTAAATGGGTAAGAACCTTAACTTTCTTGATATGAAGTTCAAGGTTATGATATA"
"ATGTGCCCAGTGGGCCACTTTTGGTAAGCAGAACTGGCGCTGTGGGATGAACCAAACGTA"
"ATGTTACGGTGCCCAAATTAACAACTCATGCAGATACCATGAAAGGCGTTGGTTGCTTAA"
"AACAGCAGGACGGTGATCATGGAAGTCGAAATCCGCTAAGGAGTGTGTAACAACTCACCT"
"GCCGAAGCAACTAGCCCTTAAAATGGATGGCGCTTAAGTTGTATACCTATACATTACCGC"
"TAAAGTAGATGATTTATATTACTTGTGATATAAATTTTGAAACTTTAGTGAGTAGGAAGG"
"TACAATGGTATGCGTAGAAGTGTTTGGCGTAAGCCTGCATGGAGCTGCCATTGGTACAGA"
"TCTTGGTGGTAGTAGCAAATAATCGAATGAGACCTTGGAGGACTGAAGTGGAGAAGGGTT"
"TCGTGTGAACAGTGGTTGATCACGAGTTAGTCGGTCCTAAGTTCAAGGCGAAAGCCGAAA"
"ATTTTCAAGTAAAACAAAAATGCCTAACTATATAAACAAAGCGAATTATAATACACTTGA"
"ATAATTTTGAACGAAAGGGAATACGGTTCCAATTCCGTAACCTGTTGAGTATCCGTTTGT"
"TATTAAATATGGGCCTCGTGCTCATCCTGGCAACAGGAACGACCATAAAGAAGCCGTCGA"
"GAGATATCGGAAGAGTTTTCTTTTCTGTTTTATAGCCGTACTACCATGGAAGTCTTTCGC"
"AGAGAGATATGGTAGATGGGCTAGAAGAGCATGACATATACTGTTGTGTCGATATTTTCT"
"CCTCGGACCTTGAAAATTTATGGTGGGGACACGCAAACTTCTCAACAGGCCGTACCAATA"
"TCCGCAGCTGGTCTCCAAGGTGAAGAGTCTCTAGTCGATAGAATAATGTAGGTAAGGGAA"
"GTCGGCAAATTAGATCCGTAACTTCGGGATAAGGATTGGCTCTGAAGATTGAGATAGTCG"
"GGCTTGATTGGGAAACAATAACATGGTTTATGTGCTCGTTCTGGGTAAATAGAGTTTCTA"
"GCATTTATGTTAGTTACTTGTTCCCCGGATAGTTTAGTTACGTAGCCAATTGTGGAACTT"
"TCTTGCTAAAATTTTTAAGAATACTATTTGGGTTAAACCAATTAGTTCTTATTAATTATA"
"ACGATTATCAATTAACAATCAATTCAGAACTGGCACGGACTTGGGGAATCCGACTGTCTA"
"ATTAAAACAAAGCATTGTGATGGCCCTAGCGGGTGTTGACACAATGTGATTTCTGCCCAG"
"TGCTCTGAATGTCAAAGTGAAGAAATTCAAGTAAGCGCGGGTCAACGGCGGGAGTAACTA"
"TGACTCTCTTAAGGTAGCCAAATGCCTCGTCATCTAATTAGTGACGCGCATGAATGGATT"
"AACGAGATTCCTACT"
),
regions=[
dat.SequenceRegion(
chromosome="rDNA",
strand=1,
exons=[dat.Exon(start=46771, stop=49485)],
assembly_id="R6",
coordinate_system=dat.CoordinateSystem.from_name(
"1-start, fully-closed"
),
),
],
rna_type="SO:0000252",
url="http://flybase.org/reports/FBtr0346876.html",
seq_version="1",
note_data={"url": "http://flybase.org/reports/FBtr0346876.html"},
xref_data={
"REFSEQ": ["NR_133553.1"],
},
species="Drosophila melanogaster",
common_name="fruit fly",
lineage=(
"Eukaryota; Metazoa; Ecdysozoa; Arthropoda; Hexapoda; "
"Insecta; Pterygota; Neoptera; Holometabola; Diptera; Brachycera; "
"Muscomorpha; Ephydroidea; Drosophilidae; Drosophila; Sophophora; "
"Drosophila melanogaster"
),
gene="FBgn0267497",
locus_tag="Dmel_CR45837",
description="Drosophila melanogaster (fruit fly) 28S ribosomal RNA:CR45837",
gene_synonyms=["CR45837", "28SrRNA:CR45837"],
)
)
def test_can_correctly_parse_lncipedia_data():
with open("data/json-schema/v020/lncipedia-5.0.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 1
assert attr.asdict(data[0]) == attr.asdict(
dat.Entry(
primary_id="lnc-CLEC18B-3:5",
accession="LNCIPEDIA:lnc-CLEC18B-3:5",
ncbi_tax_id=9606,
database="LNCIPEDIA",
sequence=(
"GTAGATCATCATCATAACAGCTCCCAGTGAATCAATGCCTCCCTGCATCCACACCCCTT"
"TGTAACATGATATTGTTGCTCTTCCCATCAAGAAATGGTCTCTTTTGGCCGGGCACAGTA"
"GCTCACGTCATCCCAGCACTTTGGGAGGCTGAGGCAGGCAGATGGCTTGAGTGTAACAAT"
"ATGTTGAATTTGCCATGGGCCTTTAAAGCTTCAATGTTGTGAAGAGCTCTGCATGAAATT"
"TTAAAGAGACTGGACCTTTCATCTGCACAACAGCAGGGCACCTCGCTATAGGGACAAGAA"
"AGGAAGAGAGAGAGAGAACATTTCTGAAGTAATAGTGAAAAATAACAGCAGAAGCAATTA"
"TTTCATCAAAGATTGCAGGGAGAGGCTCCTCCGTGCTCCTGAGAGGCCGAACACAGGGTC"
"GCCAGCACAGCTTACTGCTCGGTGTCTCCTGAGCCACAGAGGAAGACGTGGCAGGAGCAC"
"CTGGTGCTAATATATATTCATGTCTATGGCAATGCCGACCATCTGGCTGGTCTGAACCAG"
"GATAAAAGTGAAGAATTCCTCTGTGAAGACCCAGCTCTTTCTTTGGCTCCTTTTTTGAAG"
"CCATCTTTGCTCTGCTCTCCTCTGCTGCCCAGAAAGTTCCAGAGTGAAGCTCAGCTCTAG"
"ATGAACAAAAACTGGTTGAGTCCAGAGATGCCTGAGTTGGAGATGAACCTTGCAAACTTT"
"CCTCATTACCATACTAAAAACCCCACCCAGGAAGGAGCTTATCTGCCATTTCCTACACAT"
"GTGACATATGGAGAAGCATGATCAGCTACTTCACAGTCTCTGCCTTTACTCTGCCTCCGC"
"ATACAATGGCTCAGCCAACTAGCCTAACGAAAGCTGTTTTCACCATTGTTTGGGAGGTAC"
"TGCTTTGGGAAACTGCCCCAGCTGTCCTCCTTACTTGTTGTAGGTAATAAAATCCCTTTG"
"TTAAATC"
),
regions=[
dat.SequenceRegion(
chromosome="16",
strand=-1,
exons=[
dat.Exon(start=74226290, stop=74226625),
dat.Exon(start=74239803, stop=74240064),
dat.Exon(start=74244204, stop=74244404),
dat.Exon(start=74249250, stop=74249420),
],
assembly_id="GRCh37",
coordinate_system=dat.CoordinateSystem.from_name(
"1-start, fully-closed"
),
),
dat.SequenceRegion(
chromosome="16",
strand=-1,
exons=[
dat.Exon(start=74192391, stop=74192726),
dat.Exon(start=74205904, stop=74206165),
dat.Exon(start=74210305, stop=74210505),
dat.Exon(start=74215351, stop=74215521),
],
assembly_id="GRCh38",
coordinate_system=dat.CoordinateSystem.from_name(
"1-start, fully-closed"
),
),
],
rna_type="SO:0001877",
url="https://lncipedia.org/db/transcript/lnc-CLEC18B-3:5",
seq_version="1",
xref_data={"NONCODE": ["NONHSAT143655"]},
note_data={"url": "https://lncipedia.org/db/transcript/lnc-CLEC18B-3:5"},
gene="lnc-CLEC18B-3",
gene_synonyms=[
"ENSG00000249447",
"XLOC_012007",
"linc-ZFHX3-2",
"ENSG00000261404.1",
"AC009120.4",
"OTTHUMG00000176255.2",
"ENSG00000261404.5",
"ENSG00000261404.6",
"AC138627.1",
"LOC101928035",
],
# product='long non-coding RNA lnc-CLEC18B-3:5',
description="Homo sapiens (human) non-protein coding lnc-CLEC18B-3:5",
species="Homo sapiens",
common_name="human",
lineage=(
"Eukaryota; Metazoa; Chordata; Craniata; "
"Vertebrata; Euteleostomi; Mammalia; Eutheria; "
"Euarchontoglires; Primates; Haplorrhini; Catarrhini; "
"Hominidae; Homo; Homo sapiens"
),
)
)
def test_can_correctly_parse_mirbase_data():
with open("data/json-schema/v020/missing-mirbase.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 2
assert attr.asdict(data[0]) == attr.asdict(
dat.Entry(
primary_id="MI0000612",
accession="MIRBASE:MI0000612",
ncbi_tax_id=10116,
database="MIRBASE",
sequence=(
"TCTTTTGGGCGGGGGTCAAGAGCAATAACGAAAAATGTTTGTTTTTCGTAAACCGTTTTT"
"CATTATTGCTCCTGACCTCCTCTCATTTGTTATAGCCA"
),
regions=[],
rna_type="SO:0001244",
url="http://www.mirbase.org/cgi-bin/mirna_entry.pl?acc=MI0000612",
seq_version="1",
xref_data={
"EntrezGene": ["Mir335"],
},
note_data={
"url": "http://www.mirbase.org/cgi-bin/mirna_entry.pl?acc=MI0000612"
},
optional_id="rno-mir-335",
description="Rattus norvegicus miR-335 stem-loop",
species="Rattus norvegicus",
common_name="Norway rat",
lineage=(
"Eukaryota; Metazoa; Chordata; Craniata; "
"Vertebrata; Euteleostomi; Mammalia; Eutheria; "
"Euarchontoglires; Glires; Rodentia; Myomorpha; Muroidea; "
"Muridae; Murinae; Rattus; Rattus norvegicus"
),
references=[
pub.reference(17604727),
pub.reference(14691248),
pub.reference(24275495),
],
related_sequences=[
dat.RelatedSequence(
sequence_id="MIRBASE:MIMAT0000575",
relationship="matureProduct",
coordinates=[dat.RelatedCoordinate(start=15, stop=37)],
)
],
)
)
assert data[1].optional_id == "bdi-miR7720-3p"
def test_can_correct_fetch_related_sequences():
with open("data/json-schema/v020/tarbase.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 1
assert attr.asdict(data[0]) == attr.asdict(
dat.Entry(
primary_id="hsa-miR-576-3p",
accession="TARBASE:hsa-miR-576-3p",
ncbi_tax_id=9606,
database="TARBASE",
sequence="AAGATGTGGAAAAATTGGAATC",
regions=[],
rna_type="SO:0000276",
url="http://carolina.imis.athena-innovation.gr/diana_tools/web/index.php?r=tarbasev8%2Findex&miRNAs%5B%5D=hsa-miR-576-3p",
seq_version="1",
xref_data={},
note_data={
"url": "http://carolina.imis.athena-innovation.gr/diana_tools/web/index.php?r=tarbasev8%2Findex&miRNAs%5B%5D=hsa-miR-576-3p",
},
gene_synonyms=["TARBASE:hsa-miR-576-3p"],
description="Homo sapiens (human) hsa-miR-576-3p",
species="Homo sapiens",
common_name="human",
lineage=(
"Eukaryota; Metazoa; Chordata; Craniata; "
"Vertebrata; Euteleostomi; Mammalia; Eutheria; "
"Euarchontoglires; Primates; Haplorrhini; Catarrhini; "
"Hominidae; Homo; Homo sapiens"
),
references=[
pub.reference(22100165),
pub.reference(22291592),
pub.reference(22927820),
pub.reference(23313552),
pub.reference(23824327),
],
related_sequences=[
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000005339",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000006459",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000008282",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000008869",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000009844",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000009954",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000010803",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000011405",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000012963",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000013297",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000014216",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000014824",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000033030",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000036257",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000044459",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000046604",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000051341",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000055208",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000057608",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000058262",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000058673",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000060237",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000060339",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000062716",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000062725",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000064651",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000064726",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000065911",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000068654",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000069275",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000069667",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000070087",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000071189",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000072364",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000072803",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000073111",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000075415",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000075420",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000075539",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000077147",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000077943",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000078269",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000078596",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000080603",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000083312",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000083444",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000084112",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000086015",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000086232",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000086598",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000086758",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000087086",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000088179",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000088205",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000089154",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000089693",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000089902",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000090061",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000090612",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000090905",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000090989",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000091009",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000092201",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000092978",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000094880",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000095787",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000099246",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000099331",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000099949",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100084",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100219",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100228",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100359",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100441",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100503",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100568",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100580",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100647",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100697",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100916",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000100934",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000101193",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000101596",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000102144",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000102595",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000103319",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000104164",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000104177",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000104205",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000104343",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000104427",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000105173",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000105810",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000105983",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000106246",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000106546",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000106635",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000106772",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000107036",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000107643",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000107679",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000107798",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000107854",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108107",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108219",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108395",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108510",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108518",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108588",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108671",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000108774",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000109084",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000109685",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000110315",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000110955",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000111145",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000111262",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000111300",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000111348",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000111530",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000111639",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000111711",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000112218",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000112242",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000112245",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000112249",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000112378",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000113048",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000113732",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000114354",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000114686",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000114739",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000115524",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000115760",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000115866",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000115946",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000115966",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000116133",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000116221",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000116754",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000117139",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000117500",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000117592",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000117597",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000118058",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000118200",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000118496",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000118515",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000118620",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000118971",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000119231",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000119285",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000119383",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000119402",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000120526",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000120685",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000120694",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000120705",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000120733",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000121289",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000121454",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000121966",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000122257",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000123358",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000123374",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000124164",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000124191",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000124222",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000124523",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000124789",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000124795",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000125266",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000125755",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000125835",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000126003",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000126070",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000126214",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000126746",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000127418",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000128271",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000128573",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000128590",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000128607",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000129128",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000129595",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000130270",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000130449",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000131023",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000131238",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000131389",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000131446",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000132294",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000132300",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000132463",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000132475",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000132664",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000133706",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000134046",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000134108",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000134333",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000134532",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000134755",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000134759",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000135018",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000135387",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000135446",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000135837",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000135845",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000135966",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136161",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136238",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136240",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136279",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136436",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136450",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136754",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000136854",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000137055",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000137265",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000137449",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000137478",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000137770",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000138018",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000138138",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000138279",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000138336",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000138674",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000138685",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000138757",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000139180",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000139343",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000139496",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000139645",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000139718",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000139737",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000139921",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000140105",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000140688",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000141367",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000141564",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000141646",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000141682",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000142794",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143155",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143162",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143190",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143384",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143390",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143398",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143401",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000143569",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000144136",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000144840",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000145495",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000145780",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000145868",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000145907",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000146376",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000146433",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000146674",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000146830",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000147548",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000147854",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000148153",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000148341",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000148730",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000149289",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000149313",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000149328",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000149923",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000149925",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000150471",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000150593",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000151332",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000151532",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000151881",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000152061",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000152234",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000152926",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000152944",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153029",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153147",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153531",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153561",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153721",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153827",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153904",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000153944",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000154001",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000154124",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000155363",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000155506",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000155545",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000155561",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000155876",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000155966",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000156738",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000156875",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000157764",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000158615",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000158985",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000159398",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000160014",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000160325",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000162063",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000162302",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000162496",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000162928",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000163399",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000163902",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000163960",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164011",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164040",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164070",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164151",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164211",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164331",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164463",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164830",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000164916",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000165389",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000165671",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000165732",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000165795",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000165832",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000166225",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000166226",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000166233",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000166710",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000166747",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000166833",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000167106",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000167196",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000167548",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000167986",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000168066",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000168214",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000168487",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000168646",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000169018",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000169251",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000169564",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000170027",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000170385",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000170542",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000171105",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000171150",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000171262",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000171766",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000171940",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000172264",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000172466",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000172500",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000172869",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000172985",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173041",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173218",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173262",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173320",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173334",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173517",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173542",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173674",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000173821",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000174010",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000174106",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000174132",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000174231",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000175348",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000176422",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000176619",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000176903",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000176986",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000177963",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000178719",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000179010",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000179218",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000179295",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000181026",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000181467",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000181789",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000181904",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000183508",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000184949",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000184992",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000185238",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000185591",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000185716",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000185745",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000186174",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000187239",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000188529",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000188785",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000188895",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000188938",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196227",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196233",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196367",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196428",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196470",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196531",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196576",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196792",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000196914",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000197045",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000197111",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000197457",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000197837",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000198589",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000198648",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000198732",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000198791",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000198815",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000204366",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000204590",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000205213",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000211456",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000213066",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000213923",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000214160",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000214753",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000221968",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000227500",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000234127",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP", "PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000237440",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000241685",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000242265",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000244462",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000244509",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000257315",
relationship="target",
evidence=dat.RelatedEvidence(methods=["PAR-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000257923",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000266472",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000272886",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000275023",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
dat.RelatedSequence(
sequence_id="ENSEMBL:ENSG00000277443",
relationship="target",
evidence=dat.RelatedEvidence(methods=["HITS-CLIP"]),
),
],
)
)
def test_can_correctly_find_isoforms():
filename = "data/json-schema/v020/lncipedia-with-isoforms.json"
with open(filename, "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 5
data = [d for d in data if d.accession == "LNCIPEDIA:LINC01725:19"]
assert len(data) == 1
assert attr.asdict(data[0]) == attr.asdict(
dat.Entry(
primary_id="LINC01725:19",
accession="LNCIPEDIA:LINC01725:19",
ncbi_tax_id=9606,
database="LNCIPEDIA",
sequence=(
"ACCGTTGCTCAGAGTCCAGGCCGGTTAGGACCAGAGCCTACCCCGGGTGGCATGGTGATG"
"ATCCAGATTCAGGAGACATGTCTGAGAAAGGATCGTTCAGACTTTTTGACCTATTTTACA"
"TGAGGAATAAAGGATAGAGAATCTTCTTCCCTTCTGGTCTGACTAGGAAAGCCAGAGGGA"
"GATGGTGAAGGAGACACAGAGAGAGTAAAAGAACAGACCATGCCCAGCCTCTCCACTGCA"
"GGAGCTTGGAATCAGGACTGTGAGCTTCATGGAGACAAGAAACTGTGCTTTTTTTCTCCT"
"TCCTGTGAATGAATCCCATTGCAGCTTTGATTGTGGTTGAATCACCTATGGAAGCCATGC"
"ATCTTCAGCATGTAGCACATAATGGACACTCAGCAAATGACAACTGAATGAGCAAACTAA"
"TTACTCTGACCTTGAGCAGTGACTTGTGTGACCTCTGGCAATTGGTTCACCATCTGAATC"
"CCTCAGCTAGATACCTCCCTCTAATGCTGCTCCTCCATCGACAGGCATTCCTCAGCGGTC"
"AGTTGTTTCCCAGCCAGAGCCCGCACTGGCACTGATGTCTGCTATTATCACTGGAGAGGC"
"CCCGGGACTTCACTTGATGCTATCCCACTGGGATGACTGAGAAGAAGTAGGAGAAAATCA"
"AGCAAAAGCGTGGGCTCGTCTAAGTGTTTCCTCATCTGTTTCTTGGTATCTTCCTTGCTT"
"CCCTGCTTCTCCCAGCCCCAGACTTCCTTGTCTTCTCTCTTCCATCCAGAAAGACACACA"
"TGCCCCTTCTAAGTATCACTTTAGGGCTGAAGTCCAAAGTCTTCTCTTAGCTGAAATTCA"
"CTGTGCACTTGCCACTTGGCAGAGACTGCAAACAGCTCAGTGCGTGTTTTCATAGTCAGC"
"ATTAAAATAATAATTGCCACAACACTATTAAAGTTTTCCTCATTGTTGTAACTGTTGGCA"
"AAGGCAAATGTCTGGGGAGATTGACTCCCTGGAAAGCTTCATTATGCTGCGAGAATATTT"
"TTGATAAAATTTCAGCAGTTCCTGACTGTCAACTTCACTATGTGGTTTTTTTTAAAGTTG"
"TCCCCCACCCCTCTCTAACAGGTCCTCCAATTCACAAAAACATTCAGGTCAGTTGTTGAG"
"TAACTGAATCTTTCCAAGTAATTAACAGGTAGAATTACCAGGTAGCAGGCAGTGTTTGCT"
"TGTAATCCGTCAATAGTAGTTGCAGTGGGGCTAATTGTCATCTTGAGTGGCCCTGCAACC"
"ACATCTAATTAAAAGTGTCAACAGAGAGTTATTTCTGTCTTTTGTTCCCACTGCTAGGTT"
"GTACGTGTTTACTTCAGAAATCCAGGCTCAAAGTAAGACAGATATTTGGAACATGTGAAT"
"ATACAGGAAAAACATTCCCCAGCAACTCAAAGTACGTAAAAGCATTTAGGCCTCATTCCT"
"CTGTCCACCTGACTTTTTTGGTTTGTATTAGTTTATATATTCAAGGCAGATATACAGTAT"
"CTGATAAATGCAAGAGGGACATGATGCCTTTTCCTAAGCAGCAAAGTTATACTTTGCCAA"
"CTTGACTGGGAGCTGGGCTGAAGGGACAAAGGCAGGAGTCTTTTAAGACTCACTAACACT"
"TACCTAGTAATGGCAGTGGCTGCCACTACAGCTAGGTTTCTTGCCTTTGATTCATATTCT"
"TTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCTTTCT"
"TTCTTTCATGCTTCACTGAACTGTTTTCCAGTTCAAGGTAGGTAGATCTGCCAAAACTAA"
"AAAGCCTAGATTGCATATAGAACATGCCTGGATTTACAGAGCAAGGATGCAGGAACATAT"
"TTTTCCATCAGCAGAGTCTGGGTCTTGGCTAACTTAAAGTTTTGTGACTGTTCTTGGGAT"
"CAGCCCTGGGTGAAGCCTCTGTGAGGTCCAGCTGACTACTTCATTCTCATAAATACTTTC"
"TTTGAAATCTC"
),
regions=[
dat.SequenceRegion(
chromosome="1",
strand="-1",
exons=[
dat.Exon(start=83801515, stop=83803251),
dat.Exon(start=83849906, stop=83850022),
dat.Exon(start=83860407, stop=83860546),
],
assembly_id="GRCh38",
coordinate_system=dat.CoordinateSystem.from_name(
"1-start, fully-closed"
),
),
],
rna_type="SO:0001877",
url="https://lncipedia.org/db/transcript/LINC01725:19",
seq_version="1",
xref_data={"NONCODE": ["NONHSAT004171"]},
note_data={"url": "https://lncipedia.org/db/transcript/LINC01725:19"},
gene="LINC01725",
gene_synonyms=[
"ENSG00000233008",
"RP11-475O6.1",
"ENSG00000233008.1",
"OTTHUMG00000009930.1",
"ENSG00000233008.5",
"LINC01725",
"LOC101927560",
],
description="Homo sapiens (human) non-protein coding LINC01725:19",
species="Homo sapiens",
common_name="human",
lineage=(
"Eukaryota; Metazoa; Chordata; Craniata; "
"Vertebrata; Euteleostomi; Mammalia; Eutheria; "
"Euarchontoglires; Primates; Haplorrhini; Catarrhini; "
"Hominidae; Homo; Homo sapiens"
),
references=[],
related_sequences=[
dat.RelatedSequence(
sequence_id="LNCIPEDIA:LINC01725:5",
relationship="isoform",
),
dat.RelatedSequence(
sequence_id="LNCIPEDIA:LINC01725:18",
relationship="isoform",
),
dat.RelatedSequence(
sequence_id="LNCIPEDIA:LINC01725:17",
relationship="isoform",
),
dat.RelatedSequence(
sequence_id="LNCIPEDIA:LINC01725:14",
relationship="isoform",
),
],
)
)
def test_it_treats_flybase_scaRNA_correctly():
with open("data/json-schema/v020/flybase-scaRNA.json", "rb") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 1
assert data[0].rna_type == "SO:0002095"
def test_can_properly_handle_shifting_lncipedia_coordinates():
with open("data/json-schema/v020/lincipedia.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 1
assert data[0].regions == [
dat.SequenceRegion(
chromosome="15",
strand="-",
exons=[dat.Exon(start=97665305, stop=97670289)],
assembly_id="GRCh38",
coordinate_system=dat.CoordinateSystem.from_name("1-start, fully-closed"),
),
]
assert list(data[0].regions[0].writeable(data[0].accession)) == [
[
"LNCIPEDIA:LINC00923:10",
"@15/97665305-97670289:-",
"15",
-1,
"GRCh38",
1,
97665305,
97670289,
]
]
def test_can_properly_handle_shifting_mirbase_coordinates():
with open("data/json-schema/v020/shift-mirbase.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 1
assert len(data[0].regions) == 1
assert attr.asdict(data[0].regions[0]) == attr.asdict(
dat.SequenceRegion(
chromosome="9",
strand="+",
exons=[dat.Exon(start=136670602, stop=136670686)],
assembly_id="GRCh38",
coordinate_system=dat.CoordinateSystem.from_name("1-start, fully-closed"),
)
)
assert list(data[0].regions[0].writeable(data[0].accession)) == [
[
"MIRBASE:MI0000471",
"@9/136670602-136670686:+",
"9",
1,
"GRCh38",
1,
136670602,
136670686,
]
]
def test_can_properly_handle_shifting_mirbase_coordinates():
with open("data/json-schema/v020/shift-mirbase-2.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 1
assert len(data[0].regions) == 1
assert attr.asdict(data[0].regions[0]) == attr.asdict(
dat.SequenceRegion(
chromosome="12",
strand="-",
exons=[dat.Exon(start=121444279, stop=121444305)],
assembly_id="GRCh38",
coordinate_system=dat.CoordinateSystem.from_name("1-start, fully-closed"),
)
)
assert list(data[0].regions[0].writeable(data[0].accession)) == [
[
"MIRBASE:MIMAT0028112",
"@12/121444279-121444305:-",
"12",
-1,
"GRCh38",
1,
121444279,
121444305,
]
]
def test_does_get_correct_lncbook_genes():
with open("data/json-schema/v020/lncbook.json", "r") as raw:
data = json.load(raw)
data = list(v1.parse(data))
assert len(data) == 3
assert attr.asdict(data[0]) == attr.asdict(
dat.Entry(
primary_id="HSALNT0000002",
accession="LncBook:HSALNT0000002",
ncbi_tax_id=9606,
database="LNCBOOK",
sequence="CGCGGCCCCTGTAGGCCAAGGCGCCAGGCAGGACGACAGCAGCAGCAGCGCGTCTCCTTCAGCTTCACTGCTGTGTCTCCCAGTGTAACCCTAGCATCCAGAAGTGGCACAAAACCCCTCTGCTGGCTCGTGTGTGCAACTGAGACTGTCAGAGCATGGCTAGCTCAGGGGTCCAGCTCTGCAGGGTGGGGGCTAGAGAGGAAGCAGGGAGTATCTGCACACAGGATGCCCGCGCTCAGGTGGTTGCAGAAGTCAGTGCCCAGGCCCCCACACACAGTCTCCAAAGGTCCGGCCTCCCCAGCGCAGGGCTCCTCGTTTGAGGGGAGGTGACTTCCCTCCATCGGCAAGGCCAAGCTGCGCAGCATGAAGGAGCGAAAGCTGGAGAAGCAGCAGCAGAAGGAGCAGGAGCAAGTTGATGTCGGATCTCTTCAACAAGCTGGTCATGAGGCGCAAGGGCATCTCTGGGAAAGGACCTGGGGCTGGTGAGGGGCCCGGAGGAGCCTTTGC",
regions=[
dat.SequenceRegion(
chromosome="1",
strand="-",
exons=[
dat.Exon(start=14778, stop=14829),
dat.Exon(start=14970, stop=15012),
dat.Exon(start=15796, stop=15869),
dat.Exon(start=16035, stop=16310),
dat.Exon(start=16607, stop=16668),
],
assembly_id="GRCh37",
coordinate_system=dat.CoordinateSystem.from_name(
"1-start, fully-closed"
),
),
],
rna_type="SO:0001904",
url="http://bigd.big.ac.cn/lncbook/transcript?transid=HSALNT0000002",
seq_version="1",
note_data={
"url": "http://bigd.big.ac.cn/lncbook/transcript?transid=HSALNT0000002",
},
xref_data={
"NONCODE": ["NONHSAT000005.2"],
},
species="Homo sapiens",
common_name="human",
lineage=(
"Eukaryota; Metazoa; Chordata; Craniata; "
"Vertebrata; Euteleostomi; Mammalia; Eutheria; "
"Euarchontoglires; Primates; Haplorrhini; Catarrhini; "
"Hominidae; Homo; Homo sapiens"
),
gene="HSALNG0000002",
description="Homo sapiens (human) HSALNT0000002",
references=[
dat.IdReference.build("PMID:30715521"),
],
related_sequences=[
dat.RelatedSequence(
sequence_id="LncBook:HSALNT0000003",
relationship="isoform",
coordinates=[],
evidence=dat.RelatedEvidence.empty(),
),
dat.RelatedSequence(
sequence_id="LncBook:HSALNT0000004",
relationship="isoform",
coordinates=[],
evidence=dat.RelatedEvidence.empty(),
),
],
)
)
| 45.310223 | 531 | 0.501046 | 8,096 | 128,092 | 7.852643 | 0.117218 | 0.125144 | 0.180763 | 0.194668 | 0.735478 | 0.729359 | 0.718002 | 0.708376 | 0.702053 | 0.701203 | 0 | 0.078856 | 0.396285 | 128,092 | 2,826 | 532 | 45.326256 | 0.743259 | 0.005871 | 0 | 0.71945 | 0 | 0.000723 | 0.215186 | 0.137017 | 0 | 0 | 0 | 0 | 0.011569 | 1 | 0.005061 | false | 0 | 0.002169 | 0 | 0.007231 | 0 | 0 | 0 | 0 | null | 0 | 1 | 1 | 0 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
2023f978f7a214c85d0710fa819243b32392f67f | 3,421 | py | Python | tests/spectral_clusterer_test.py | JKybelka/SpectralCluster | 15195d850eb31eb421b1b6d7eb53ba0188542b24 | [
"Apache-2.0"
] | null | null | null | tests/spectral_clusterer_test.py | JKybelka/SpectralCluster | 15195d850eb31eb421b1b6d7eb53ba0188542b24 | [
"Apache-2.0"
] | null | null | null | tests/spectral_clusterer_test.py | JKybelka/SpectralCluster | 15195d850eb31eb421b1b6d7eb53ba0188542b24 | [
"Apache-2.0"
] | null | null | null | import unittest
import numpy as np
from spectralcluster import refinement
from spectralcluster import spectral_clusterer
from spectralcluster import utils
class TestSpectralClusterer(unittest.TestCase):
"""Tests for the SpectralClusterer class."""
def setUp(self):
super().setUp()
pass
def test_6by2_matrix(self):
matrix = np.array([
[1.0, 0.0],
[1.1, 0.1],
[0.0, 1.0],
[0.1, 1.0],
[0.9, -0.1],
[0.0, 1.2],
])
refinement_options = refinement.RefinementOptions(
gaussian_blur_sigma=0, p_percentile=0.95)
clusterer = spectral_clusterer.SpectralClusterer(
refinement_options=refinement_options)
labels = clusterer.predict(matrix)
labels = utils.enforce_ordered_labels(labels)
expected = np.array([0, 0, 1, 1, 0, 1])
self.assertTrue(np.array_equal(expected, labels))
def test_1000by6_matrix(self):
matrix = np.array([[1.0, 0.0, 0.0, 0.0, 0.0, 0.0]] * 400 +
[[0.0, 1.0, 0.0, 0.0, 0.0, 0.0]] * 300 +
[[0.0, 0.0, 2.0, 0.0, 0.0, 0.0]] * 200 +
[[0.0, 0.0, 0.0, 1.0, 0.0, 0.0]] * 100)
noisy = np.random.rand(1000, 6) * 2 - 1
matrix = matrix + noisy * 0.1
refinement_options = refinement.RefinementOptions(
gaussian_blur_sigma=0, p_percentile=0.2)
clusterer = spectral_clusterer.SpectralClusterer(
refinement_options=refinement_options, stop_eigenvalue=0.01)
labels = clusterer.predict(matrix)
labels = utils.enforce_ordered_labels(labels)
expected = np.array([0] * 400 + [1] * 300 + [2] * 200 + [3] * 100)
self.assertTrue(np.array_equal(expected, labels))
def test_6by2_matrix_normalized_laplacian(self):
matrix = np.array([
[1.0, 0.0],
[1.1, 0.1],
[0.0, 1.0],
[0.1, 1.0],
[0.9, -0.1],
[0.0, 1.2],
])
refinement_sequence = []
refinement_options = refinement.RefinementOptions(
p_percentile=0.95,
refinement_sequence=refinement_sequence)
clusterer = spectral_clusterer.SpectralClusterer(
max_clusters=2,
refinement_options=refinement_options,
laplacian_type="graph_cut",
row_wise_renorm=True)
labels = clusterer.predict(matrix)
labels = utils.enforce_ordered_labels(labels)
expected = np.array([0, 0, 1, 1, 0, 1])
self.assertTrue(np.array_equal(expected, labels))
def test_1000by6_matrix_normalized_laplacian(self):
matrix = np.array([[1.0, 0.0, 0.0, 0.0, 0.0, 0.0]] * 400 +
[[0.0, 1.0, 0.0, 0.0, 0.0, 0.0]] * 300 +
[[0.0, 0.0, 2.0, 0.0, 0.0, 0.0]] * 200 +
[[0.0, 0.0, 0.0, 1.0, 0.0, 0.0]] * 100)
noisy = np.random.rand(1000, 6) * 2 - 1
matrix = matrix + noisy * 0.1
refinement_sequence = []
refinement_options = refinement.RefinementOptions(
p_percentile=0.95,
refinement_sequence=refinement_sequence)
clusterer = spectral_clusterer.SpectralClusterer(
max_clusters=4,
refinement_options=refinement_options,
laplacian_type="graph_cut",
row_wise_renorm=True)
labels = clusterer.predict(matrix)
labels = utils.enforce_ordered_labels(labels)
expected = np.array([0] * 400 + [1] * 300 + [2] * 200 + [3] * 100)
self.assertTrue(np.array_equal(expected, labels))
if __name__ == "__main__":
unittest.main()
| 34.908163 | 70 | 0.611225 | 471 | 3,421 | 4.282378 | 0.161359 | 0.087258 | 0.092216 | 0.095191 | 0.853247 | 0.853247 | 0.853247 | 0.853247 | 0.776896 | 0.770451 | 0 | 0.10159 | 0.246127 | 3,421 | 97 | 71 | 35.268041 | 0.680496 | 0.011108 | 0 | 0.752941 | 0 | 0 | 0.007699 | 0 | 0 | 0 | 0 | 0 | 0.047059 | 1 | 0.058824 | false | 0.011765 | 0.058824 | 0 | 0.129412 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
6447a9f94f224e04519119e648da3e3c7833e093 | 17,571 | py | Python | ranker/simulate_raters.py | cmaclell/humanranker | 5a5d2de6c8975506106b8531d38952edc687ae9e | [
"MIT"
] | null | null | null | ranker/simulate_raters.py | cmaclell/humanranker | 5a5d2de6c8975506106b8531d38952edc687ae9e | [
"MIT"
] | null | null | null | ranker/simulate_raters.py | cmaclell/humanranker | 5a5d2de6c8975506106b8531d38952edc687ae9e | [
"MIT"
] | 1 | 2018-06-23T13:38:38.000Z | 2018-06-23T13:38:38.000Z | import random
import math
import numpy as np
import matplotlib.pyplot as plt
from scipy.stats import spearmanr
from scipy.optimize import fmin_tnc
from estimator import ll_combined
from estimator import ll_combined_grad
from estimator import expz
from estimator import item_mean
from estimator import item_std
from estimator import discrim_mean
from estimator import discrim_std
from estimator import bias_mean
from estimator import bias_std
from estimator import prec_mean
from estimator import prec_std
from estimator import FakeObject
def random_choice(judge, left_item, right_item):
return random.choice([0,1])
def perfect_choice(judge, left_item, right_item):
if left_item.value > right_item.value:
return 1.0
else:
return 0.0
def noisy_choice(judge, left_item, right_item):
prob_correct = (1.0 / (1.0 + expz(-judge.true_discrim * (left_item.value -
right_item.value))))
r = random.random()
if r <= prob_correct:
return 1.0
else:
return 0.0
def random_judgement(judge, item):
return random.choice([1,2,3,4,5,6,7])
def perfect_judgement(judge, item):
return max(1, min(7, round((item.value + bias_mean))))
def noisy_judgement(judge, item):
estimate = random.normalvariate(item.value + judge.true_bias,
math.sqrt(1/judge.true_precision))
return max(1, min(7, round((estimate))))
def random_item(items):
items = [i for i in items]
random.shuffle(items)
return items[0]
def random_pair(items):
items = [i for i in items]
random.shuffle(items)
return items[0:2]
def simulate_individual(num_runs, num_items, num_judges, num_ratings,
estimation_mod, decision_fn, rate_fn):
print("Simulating Individual")
accuracy = [[] for i in range(num_ratings)]
for run in range(num_runs):
print("Run %i" % run)
items = []
ids = []
for i in range(num_items):
item = FakeObject()
item.id = i
item.value = random.normalvariate(item_mean,item_std)
items.append(item)
ids.append(i)
judges = []
jids = []
for i in range(num_judges):
judge = FakeObject()
judge.id = i
judge.true_bias = min(7,max(1,random.normalvariate(bias_mean, bias_std)))
judge.true_precision = max(0.001, random.normalvariate(prec_mean,prec_std))
judge.cache = {}
judge.decision_fn = decision_fn
judges.append(judge)
jids.append(i)
# generate ratings
ratings = []
run_accuracy = []
result = None
for i in range(num_ratings):
if i % estimation_mod is 0:
if result is None:
x0 = [0.0 for item in items]
x0 += [1.0 for judge in judges]
x0 += [0.0 for judge in judges]
x0 += [1.0 for judge in judges]
x0 += [4.0]
else:
x0 = result
bounds = [('-inf','inf') for v in ids]
bounds += [(0.001,'inf') for v in jids]
bounds += [('-inf','inf') for v in jids]
bounds += [(0.001,'inf') for v in jids]
bounds += [(1,7)]
result = fmin_tnc(ll_combined, x0,
#approx_grad=True,
fprime=ll_combined_grad,
args=(tuple(ids), tuple(jids), [], ratings),
bounds=bounds, disp=False)[0]
ids = {i: idx for idx, i in enumerate(ids)}
discids = {i: idx + len(ids) for idx, i in enumerate(jids)}
biasids = {i: idx + len(ids) + len(jids) for idx, i in enumerate(jids)}
precids = {i: idx + len(ids) + 2 * len(jids) for idx, i in enumerate(jids)}
for item in items:
item.mean = result[ids[item.id]]
item.conf = 10000.0
for judge in judges:
judge.discrimination = result[discids[judge.id]]
judge.bias = result[biasids[judge.id]]
judge.precision = result[precids[judge.id]]
d2ll = np.array([0.0 for item in items])
for l in ratings:
d2ll[ids[l.item.id]] += l.judge.precision
# regularization terms
for i,v in enumerate(d2ll):
d2ll[i] += len(ids) / (item_std * item_std)
std = 1.0 / np.sqrt(d2ll)
for item in items:
item.conf = 1.96 * std[ids[item.id]]
actual = np.array([item.value for item in items])
predicted = np.array([item.mean for item in items])
r = spearmanr(actual,predicted)[0]
if math.isnan(r):
run_accuracy.append(0.0)
else:
run_accuracy.append(r)
r = FakeObject()
r.item = rate_fn(items)
r.judge = random.choice(judges)
r.value = r.judge.decision_fn(r.judge, r.item)
ratings.append(r)
for idx, v in enumerate(run_accuracy):
accuracy[idx].append(v)
return accuracy
def simulate_pairwise(num_runs, num_items, num_judges, num_ratings,
estimation_mod, decision_fn, rate_fn):
print("Simulating Pairwise")
accuracy = [[] for i in range(num_ratings)]
for run in range(num_runs):
print("Run %i" % run)
items = []
ids = []
for i in range(num_items):
item = FakeObject()
item.id = i
item.value = random.normalvariate(item_mean,item_std)
items.append(item)
ids.append(i)
judges = []
jids = []
for i in range(num_judges):
judge = FakeObject()
judge.id = i
judge.true_discrim = max(0.001, random.normalvariate(discrim_mean,discrim_std))
judge.cache = {}
judge.decision_fn = decision_fn
judges.append(judge)
jids.append(i)
# generate ratings
ratings = []
run_accuracy = []
result = None
for i in range(num_ratings):
if i % estimation_mod is 0:
if result is None:
x0 = [0.0 for item in items]
x0 += [1.0 for judge in judges]
x0 += [0.0 for judge in judges]
x0 += [1.0 for judge in judges]
x0 += [1.0, 4.0]
else:
x0 = result
bounds = [('-inf','inf') for v in ids]
bounds += [(0.001,'inf') for v in jids]
bounds += [('-inf','inf') for v in jids]
bounds += [(0.001,'inf') for v in jids]
bounds += [(0.001, 'inf'), (1,7)]
result = fmin_tnc(ll_combined, x0,
#approx_grad=True,
fprime=ll_combined_grad,
args=(tuple(ids), tuple(jids), ratings, []),
bounds=bounds, disp=False)[0]
ids = {i: idx for idx, i in enumerate(ids)}
discids = {i: idx + len(ids) for idx, i in enumerate(jids)}
biasids = {i: idx + len(ids) + len(jids) for idx, i in enumerate(jids)}
precids = {i: idx + len(ids) + 2 * len(jids) for idx, i in enumerate(jids)}
for item in items:
item.mean = result[ids[item.id]]
item.conf = 10000.0
for judge in judges:
judge.discrimination = result[discids[judge.id]]
judge.bias = result[biasids[judge.id]]
judge.precision = result[precids[judge.id]]
d2ll = np.array([0.0 for item in items])
for r in ratings:
d = r.judge.discrimination
left = r.left.mean
right = r.right.mean
p = 1.0 / (1.0 + expz(-1 * d * (left-right)))
q = 1 - p
d2ll[ids[r.left.id]] += d * d * p * q
d2ll[ids[r.right.id]] += d * d * p * q
# regularization terms
for i,v in enumerate(d2ll):
d2ll[i] += len(ids) / (item_std * item_std)
std = 1.0 / np.sqrt(d2ll)
for item in items:
item.conf = 1.96 * std[ids[item.id]]
actual = np.array([item.value for item in items])
predicted = np.array([item.mean for item in items])
r = spearmanr(actual,predicted)[0]
if math.isnan(r):
run_accuracy.append(0.0)
else:
run_accuracy.append(r)
r = FakeObject()
r.left, r.right = rate_fn(items)
r.judge = random.choice(judges)
r.value = r.judge.decision_fn(r.judge, r.left, r.right)
ratings.append(r)
for idx, v in enumerate(run_accuracy):
accuracy[idx].append(v)
return accuracy
def simulate_combined(num_runs, num_items, num_judges, num_ratings,
estimation_mod,
pairwise_decision_fn, pairwise_rate_fn,
individual_decision_fn, individual_rate_fn):
print("Simulating Combined")
accuracy = [[] for i in range(num_ratings)]
for run in range(num_runs):
print("Run %i" % run)
items = []
ids = []
for i in range(num_items):
item = FakeObject()
item.id = i
item.value = random.normalvariate(item_mean,item_std)
items.append(item)
ids.append(i)
judges = []
jids = []
for i in range(num_judges):
judge = FakeObject()
judge.id = i
judge.true_discrim = max(0.001, random.normalvariate(discrim_mean,discrim_std))
judge.true_bias = min(7,max(1,random.normalvariate(bias_mean, bias_std)))
judge.true_precision = max(0.001, random.normalvariate(prec_mean,prec_std))
judge.cache = {}
judge.pairwise_decision_fn = pairwise_decision_fn
judge.individual_decision_fn = individual_decision_fn
judges.append(judge)
jids.append(i)
# generate ratings
pairwise = []
individual = []
run_accuracy = []
result = None
for i in range(num_ratings):
if i % estimation_mod is 0:
if result is None:
x0 = [0.0 for item in items]
x0 += [1.0 for judge in judges]
x0 += [0.0 for judge in judges]
x0 += [1.0 for judge in judges]
x0 += [1.0, 4.0]
else:
x0 = result
bounds = [('-inf','inf') for v in ids]
bounds += [(0.001,'inf') for v in jids]
bounds += [('-inf','inf') for v in jids]
bounds += [(0.001,'inf') for v in jids]
bounds += [(0.001,'inf'), (1, 7)]
result = fmin_tnc(ll_combined, x0,
#approx_grad=True,
fprime=ll_combined_grad,
args=(tuple(ids), tuple(jids), pairwise,
individual),
bounds=bounds, disp=False)[0]
print(result[-1], result[-2])
ids = {i: idx for idx, i in enumerate(ids)}
discids = {i: idx + len(ids) for idx, i in enumerate(jids)}
biasids = {i: idx + len(ids) + len(jids) for idx, i in enumerate(jids)}
precids = {i: idx + len(ids) + 2 * len(jids) for idx, i in enumerate(jids)}
for item in items:
item.mean = result[ids[item.id]]
item.conf = 10000.0
for judge in judges:
judge.discrimination = result[discids[judge.id]]
judge.bias = result[biasids[judge.id]]
judge.precision = result[precids[judge.id]]
d2ll = np.array([0.0 for item in items])
for r in pairwise:
d = r.judge.discrimination
left = r.left.mean
right = r.right.mean
p = 1.0 / (1.0 + expz(-1 * d * (left-right)))
q = 1 - p
d2ll[ids[r.left.id]] += d * d * p * q
d2ll[ids[r.right.id]] += d * d * p * q
for l in individual:
d2ll[ids[l.item.id]] += l.judge.precision
# regularization terms
for i,v in enumerate(d2ll):
d2ll[i] += len(ids) / (item_std * item_std)
std = 1.0 / np.sqrt(d2ll)
for item in items:
item.conf = 1.96 * std[ids[item.id]]
actual = np.array([item.value for item in items])
predicted = np.array([item.mean for item in items])
r = spearmanr(actual,predicted)[0]
if math.isnan(r):
run_accuracy.append(0.0)
else:
run_accuracy.append(r)
if i%2 is 0:
r = FakeObject()
r.left, r.right = pairwise_rate_fn(items)
r.judge = random.choice(judges)
r.value = r.judge.pairwise_decision_fn(r.judge, r.left, r.right)
pairwise.append(r)
else:
r = FakeObject()
r.item = individual_rate_fn(items)
r.judge = random.choice(judges)
r.value = r.judge.individual_decision_fn(r.judge, r.item)
individual.append(r)
for idx, v in enumerate(run_accuracy):
accuracy[idx].append(v)
return accuracy
if __name__ == "__main__":
num_runs = 1
num_items = 100
num_judges = 20
num_ratings = 501
num_estimations = 10
estimation_mod = math.trunc(num_ratings / num_estimations)
# individual
#accuracy_ind = simulate_individual(num_runs, num_items, num_judges, num_ratings,
# estimation_mod, noisy_judgement, random_item)
#acc_ind_mean = [np.mean(np.array(l)) for l in accuracy_ind]
#acc_ind_lower = [acc_ind_mean[idx] - 1.96 * np.std(np.array(l)) for idx, l in
# enumerate(accuracy_ind)]
#acc_ind_upper = [acc_ind_mean[idx] + 1.96 * np.std(np.array(l)) for idx, l in
# enumerate(accuracy_ind)]
#plt.fill_between([i * estimation_mod for i in range(num_ratings)], acc_ind_lower,
# acc_ind_upper, alpha=0.5, facecolor="blue")
#plt.plot([i * estimation_mod for i in range(num_ratings)], acc_ind_mean,
# label="Individual", color="blue")
# pairwise
#accuracy_pairwise = simulate_pairwise(num_runs, num_items, num_judges, num_ratings,
# estimation_mod, noisy_choice, random_pair)
#acc_pair_mean = [np.mean(np.array(l)) for l in accuracy_pairwise]
#acc_pair_lower = [acc_pair_mean[idx] - 1.96 * np.std(np.array(l)) for idx, l in
# enumerate(accuracy_pairwise)]
#acc_pair_upper = [acc_pair_mean[idx] + 1.96 * np.std(np.array(l)) for idx, l in
# enumerate(accuracy_pairwise)]
#plt.fill_between([i * estimation_mod for i in range(num_ratings)], acc_pair_lower,
# acc_pair_upper, alpha=0.5, facecolor="green")
#plt.plot([i * estimation_mod for i in range(num_ratings)], acc_pair_mean,
# label="Pairwise", color="green")
# combined
accuracy_combined = simulate_combined(num_runs, num_items, num_judges,
num_ratings, estimation_mod,
noisy_choice, random_pair, noisy_judgement, random_item)
acc_combined_mean = [np.mean(np.array(l)) for l in accuracy_combined]
acc_combined_lower = [acc_combined_mean[idx] - 1.96 * np.std(np.array(l)) for idx, l in
enumerate(accuracy_combined)]
acc_combined_upper = [acc_combined_mean[idx] + 1.96 * np.std(np.array(l)) for idx, l in
enumerate(accuracy_combined)]
plt.fill_between([i * estimation_mod for i in range(num_ratings)], acc_combined_lower,
acc_combined_upper, alpha=0.5, facecolor="red")
plt.plot([i * estimation_mod for i in range(num_ratings)], acc_combined_mean,
label="Combined", color="red")
plt.title("Simulated Accuracy for " + str(num_items) + " Items and " +
str(num_judges) + " Judges (Avg of " + str(num_runs) + " Runs)")
plt.xlabel("# of ratings")
plt.ylabel("Spearman's Rank Correlation Coefficient")
plt.legend(loc=4)
plt.show()
| 37.706009 | 91 | 0.507655 | 2,141 | 17,571 | 4.033162 | 0.075199 | 0.011118 | 0.02432 | 0.02293 | 0.814592 | 0.780544 | 0.753561 | 0.753561 | 0.743949 | 0.743949 | 0 | 0.024924 | 0.385749 | 17,571 | 465 | 92 | 37.787097 | 0.775132 | 0.093336 | 0 | 0.718023 | 0 | 0 | 0.017114 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.031977 | false | 0 | 0.052326 | 0.008721 | 0.122093 | 0.020349 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
b3af3b41734fe6c78e86f97a9ac735cf6b71917b | 44 | py | Python | Python/pythonProject/exercise/ex033.py | JoaoMoreira2002/Linguagens-de-programacao | b91a902188428238a567c8f52b2ac9028378c4df | [
"MIT"
] | null | null | null | Python/pythonProject/exercise/ex033.py | JoaoMoreira2002/Linguagens-de-programacao | b91a902188428238a567c8f52b2ac9028378c4df | [
"MIT"
] | null | null | null | Python/pythonProject/exercise/ex033.py | JoaoMoreira2002/Linguagens-de-programacao | b91a902188428238a567c8f52b2ac9028378c4df | [
"MIT"
] | null | null | null | print('\033[31;42m'+'Olá mundo'+'\033[0;0m') | 44 | 44 | 0.613636 | 9 | 44 | 3 | 0.888889 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.27907 | 0.022727 | 44 | 1 | 44 | 44 | 0.348837 | 0 | 0 | 0 | 0 | 0 | 0.644444 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 8 |
b3ed88d5d0031710028fd17c5f7c8575c654703c | 461 | py | Python | reinvent_scoring/scoring/diversity_filters/reinvent_core/__init__.py | MolecularAI/reinvent-scoring | f7e052ceeffd29e17e1672c33607189873c82a45 | [
"MIT"
] | null | null | null | reinvent_scoring/scoring/diversity_filters/reinvent_core/__init__.py | MolecularAI/reinvent-scoring | f7e052ceeffd29e17e1672c33607189873c82a45 | [
"MIT"
] | 2 | 2021-11-01T23:19:42.000Z | 2021-11-22T23:41:39.000Z | reinvent_scoring/scoring/diversity_filters/reinvent_core/__init__.py | MolecularAI/reinvent-scoring | f7e052ceeffd29e17e1672c33607189873c82a45 | [
"MIT"
] | 2 | 2021-11-18T13:14:22.000Z | 2022-03-16T07:52:57.000Z | from reinvent_scoring.scoring.diversity_filters.reinvent_core.identical_murcko_scaffold import IdenticalMurckoScaffold
from reinvent_scoring.scoring.diversity_filters.reinvent_core.no_scaffold_filter import NoScaffoldFilter
from reinvent_scoring.scoring.diversity_filters.reinvent_core.scaffold_similarity import ScaffoldSimilarity
from reinvent_scoring.scoring.diversity_filters.reinvent_core.identical_topological_scaffold import IdenticalTopologicalScaffold
| 92.2 | 128 | 0.930586 | 51 | 461 | 8.039216 | 0.352941 | 0.117073 | 0.185366 | 0.253659 | 0.570732 | 0.570732 | 0.570732 | 0.570732 | 0.307317 | 0 | 0 | 0 | 0.034707 | 461 | 4 | 129 | 115.25 | 0.921348 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
375975b644bfb69f2408495d094a8f6d8417543f | 16,616 | py | Python | sim_config.py | ZhaozhiQIAN/Single-Cause-Perturbation-NeurIPS-2021 | c1dd837bf4afc91d2a64a3afab759a21cbdc65cb | [
"MIT"
] | 8 | 2021-12-07T18:16:59.000Z | 2022-03-08T02:17:06.000Z | sim_config.py | ZhaozhiQIAN/Single-Cause-Perturbation-NeurIPS-2021 | c1dd837bf4afc91d2a64a3afab759a21cbdc65cb | [
"MIT"
] | null | null | null | sim_config.py | ZhaozhiQIAN/Single-Cause-Perturbation-NeurIPS-2021 | c1dd837bf4afc91d2a64a3afab759a21cbdc65cb | [
"MIT"
] | 1 | 2021-12-03T16:25:41.000Z | 2021-12-03T16:25:41.000Z | from typing import NamedTuple
from global_config import (
CAUSE_NOISE,
CONFOUNDING_LEVEL,
N_CAUSE,
N_CONFOUNDER,
OUTCOME_INTERACTION,
OUTCOME_NOISE,
P_CAUSE_CAUSE,
P_CONFOUNDER_CAUSE,
P_OUTCOME_DOUBLE,
P_OUTCOME_SINGLE,
SAMPLE_SIZE,
)
from sim_data_gen import DataGeneratorConfig
#
# ablation study
# P_CAUSE_CAUSE = 0.9
sim_dict = dict()
config = DataGeneratorConfig(
n_confounder=17,
n_cause=5,
n_outcome=1,
sample_size=3080,
p_confounder_cause=0.3,
p_cause_cause=0.0,
cause_noise=1,
outcome_noise=0.01,
linear=True,
n_flip=1,
sim_id="real_3000",
real_data=True,
)
sim_dict["real_3000"] = config
for sample_size in [500, 1000, 1500, 2000, 2500]:
idd = "real_{}".format(sample_size)
config = DataGeneratorConfig(
n_confounder=17,
n_cause=5,
n_outcome=1,
sample_size=sample_size,
p_confounder_cause=0.3,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=1,
outcome_noise=0.01,
linear=True,
n_flip=1,
sim_id=idd,
real_data=True,
)
sim_dict[idd] = config
for linear in [True, False]:
lin_id = "linear" if linear else "nonlinear"
for sample_size_train in [400, 700, 1400, 2000]:
sim_id = "sample_size_train_{}_{}".format(sample_size_train, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
confounding_level=CONFOUNDING_LEVEL,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
n_flip=1,
sim_id=sim_id,
sample_size_train=sample_size_train,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for n_confounder in [10, 20, 30, 40]:
sim_id = "n_confounder_{}_{}".format(n_confounder, lin_id)
config = DataGeneratorConfig(
n_confounder=n_confounder,
n_cause=N_CAUSE,
n_outcome=1,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
confounding_level=CONFOUNDING_LEVEL,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
n_flip=1,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for confounding_level in [1.0, 3.0, 5.0, 7.0]:
sim_id = "confounding_level_{}_{}".format(confounding_level, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
n_flip=1,
confounding_level=confounding_level,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for n_flip in [1, 2, 3, 5]:
sim_id = "n_flip_{}_{}".format(n_flip, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
n_flip=n_flip,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for p_confounder_cause in [0.1, 0.3, 0.5, 0.8]:
sim_id = "p_confounder_cause_{}_{}".format(p_confounder_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=p_confounder_cause,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for p_cause_cause in [0.1, 0.3, 0.5, 0.8]:
sim_id = "p_cause_cause_{}_{}".format(p_cause_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=p_cause_cause,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
sim_id=sim_id,
n_flip=1,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for p_outcome_single in [0.1, 0.3, 0.5, 0.8]:
sim_id = "p_outcome_single_{}_{}".format(p_outcome_single, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
p_outcome_single=p_outcome_single,
p_outcome_double=P_OUTCOME_DOUBLE,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
sim_id=sim_id,
n_flip=1,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for cause_noise in [0.01, 0.3, 0.5, 0.8]:
sim_id = "cause_noise_{}_{}".format(cause_noise, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
p_outcome_single=P_OUTCOME_SINGLE,
p_outcome_double=P_OUTCOME_DOUBLE,
cause_noise=cause_noise,
outcome_noise=OUTCOME_NOISE,
linear=linear,
sim_id=sim_id,
n_flip=1,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for p_outcome_double in [0.05, 0.1, 0.15, 0.2]:
sim_id = "p_outcome_double_{}_{}".format(p_outcome_double, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=N_CAUSE,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
p_outcome_single=P_OUTCOME_SINGLE,
p_outcome_double=p_outcome_double,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
sim_id=sim_id,
n_flip=1,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]:
sim_id = "n_cause_{}_{}".format(n_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=n_cause,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
)
sim_dict[sim_id] = config
for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]:
sim_id = "nc_n_cause_{}_{}".format(n_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=2,
n_cause=n_cause,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=0.0,
p_cause_cause=0.0,
cause_noise=CAUSE_NOISE,
outcome_noise=OUTCOME_NOISE,
linear=linear,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
p_outcome_single=1.0,
p_outcome_double=1.0,
)
sim_dict[sim_id] = config
for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]:
sim_id = "ndlm_n_cause_{}_{}".format(n_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=n_cause,
n_outcome=1,
confounding_level=10,
sample_size=SAMPLE_SIZE,
p_confounder_cause=0.5,
p_cause_cause=0.0,
cause_noise=0.0,
outcome_noise=0.1,
linear=linear,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
p_outcome_single=0.2,
p_outcome_double=0.001,
)
sim_dict[sim_id] = config
for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]:
sim_id = "ldlm_n_cause_{}_{}".format(n_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=n_cause,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=0.5,
p_cause_cause=0.0,
cause_noise=0.0,
outcome_noise=0.1,
linear=linear,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
p_outcome_single=1.0,
p_outcome_double=0.0,
)
sim_dict[sim_id] = config
for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]:
sim_id = "o3_n_cause_{}_{}".format(n_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=5,
n_cause=n_cause,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=0.5,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=0.1,
linear=linear,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
p_outcome_single=1.0,
p_outcome_double=1.0,
)
sim_dict[sim_id] = config
for n_cause in [2, 3, 4, 5, 6, 7, 8, 9, 10, 11, 12]:
sim_id = "dn_n_cause_{}_{}".format(n_cause, lin_id)
config = DataGeneratorConfig(
n_confounder=5,
n_cause=n_cause,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=1.0,
p_cause_cause=1.0,
cause_noise=CAUSE_NOISE,
outcome_noise=0.1,
linear=linear,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
p_outcome_single=1.0,
p_outcome_double=1.0,
)
sim_dict[sim_id] = config
for n_flip in [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]:
sim_id = "abl_n_flip_{}".format(n_flip)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=10,
n_outcome=1,
sample_size=5000,
p_confounder_cause=0.3,
p_cause_cause=0.9,
cause_noise=0.0,
outcome_noise=0.01,
n_flip=n_flip,
confounding_level=1.0,
linear=True,
sim_id=sim_id,
)
sim_dict[sim_id] = config
for n_flip in [1, 2, 3, 4, 5, 6, 7, 8, 9, 10]:
sim_id = "abl_n_flip_new_{}".format(n_flip)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=10,
n_outcome=1,
sample_size=5000,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=0.9,
cause_noise=CAUSE_NOISE,
outcome_noise=0.01,
n_flip=n_flip,
confounding_level=CONFOUNDING_LEVEL,
linear=True,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
p_outcome_single=P_OUTCOME_SINGLE,
p_outcome_double=P_OUTCOME_DOUBLE,
)
sim_dict[sim_id] = config
for p_cause_cause in [0.1, 0.3, 0.5, 0.8]:
sim_id = "abl_p_cause_cause_{}".format(p_cause_cause)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=5,
n_outcome=1,
sample_size=5000,
p_confounder_cause=0.3,
p_cause_cause=p_cause_cause,
cause_noise=0.01,
outcome_noise=0.01,
linear=True,
confounding_level=1.0,
sim_id=sim_id,
n_flip=2,
)
sim_dict[sim_id] = config
for p_confounder_cause in [0.1, 0.2, 0.3, 0.4, 0.5, 0.6, 0.7, 0.8, 0.9, 1.0]:
sim_id = "abl_p_confounder_cause_{}".format(p_confounder_cause)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=10,
n_outcome=1,
sample_size=5000,
p_confounder_cause=p_confounder_cause,
p_cause_cause=0.0,
cause_noise=0.0,
outcome_noise=0.01,
linear=True,
confounding_level=1.0,
sim_id=sim_id,
n_flip=1,
)
sim_dict[sim_id] = config
sim_id = "ea_{}_{}".format(5, "linear")
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=5,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=0.1,
linear=True,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
n_flip=1,
)
sim_dict[sim_id] = config
for confounding_level in [2, 4, 6, 8, 10]:
sim_id = "ea_balance_{}".format(confounding_level)
config = DataGeneratorConfig(
n_confounder=5,
n_cause=5,
n_outcome=1,
confounding_level=confounding_level,
sample_size=SAMPLE_SIZE,
p_confounder_cause=1,
p_cause_cause=1,
cause_noise=0,
outcome_noise=0.1,
linear=True,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
n_flip=1,
)
sim_dict[sim_id] = config
for flip in range(0, 6):
sim_id = "ea_{}_{}_{}".format(5, "linear", flip)
config = DataGeneratorConfig(
n_confounder=N_CONFOUNDER,
n_cause=5,
n_outcome=1,
confounding_level=CONFOUNDING_LEVEL,
sample_size=SAMPLE_SIZE,
p_confounder_cause=P_CONFOUNDER_CAUSE,
p_cause_cause=P_CAUSE_CAUSE,
cause_noise=CAUSE_NOISE,
outcome_noise=0.1,
linear=True,
sim_id=sim_id,
outcome_interaction=OUTCOME_INTERACTION,
n_flip=flip,
)
sim_dict[sim_id] = config
# p_confounder_cause=0.1, 0.3, 0.5
# independent_cause = DataGeneratorConfig(
# n_confounder=N_CONFOUNDER,
# n_cause=N_CAUSE,
# n_outcome=1,
# sample_size=SAMPLE_SIZE,
# # higher, higher error
# p_confounder_cause=P_CONFOUNDER_CAUSE,
# # independent cause
# p_cause_cause=0.0,
# cause_noise=CAUSE_NOISE,
# outcome_noise=OUTCOME_NOISE,
# linear=True
# )
# n_cause = 2, 5, 10
# independent_cause = DataGeneratorConfig(
# n_confounder=N_CONFOUNDER,
# n_cause=N_CAUSE,
# n_outcome=1,
# sample_size=SAMPLE_SIZE,
# # higher, higher error
# p_confounder_cause=P_CONFOUNDER_CAUSE,
# # independent cause
# p_cause_cause=0.0,
# cause_noise=CAUSE_NOISE,
# outcome_noise=OUTCOME_NOISE,
# linear=True
# )
class AblationConfig(NamedTuple):
perturb_subset: int = 10000
exact_single_cause: bool = False
predict_all_causes: bool = False
is_ablate: bool = False
ablation_id: str = ""
oracle_po: bool = False
oracle_potential_cause: bool = False
| 31.350943 | 78 | 0.599362 | 2,123 | 16,616 | 4.281677 | 0.048516 | 0.049505 | 0.088009 | 0.054235 | 0.883718 | 0.862266 | 0.854235 | 0.835424 | 0.830803 | 0.821892 | 0 | 0.040442 | 0.313974 | 16,616 | 529 | 79 | 31.410208 | 0.756996 | 0.045378 | 0 | 0.761905 | 0 | 0 | 0.02755 | 0.008783 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.006494 | 0 | 0.02381 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
37ac29337e0185bf529b76cc35e9538abac61b9d | 25,661 | py | Python | graylog/apis/systemgrok_api.py | yumimobi/graylog.py | 3118f4a49c91c2cbbd660523b0ab99e56fbfd861 | [
"Apache-2.0"
] | 10 | 2016-09-27T08:13:22.000Z | 2018-09-04T13:15:42.000Z | graylog/apis/systemgrok_api.py | yumimobi/graylog.py | 3118f4a49c91c2cbbd660523b0ab99e56fbfd861 | [
"Apache-2.0"
] | 1 | 2019-08-28T16:16:09.000Z | 2019-08-28T16:16:09.000Z | graylog/apis/systemgrok_api.py | yumimobi/graylog.py | 3118f4a49c91c2cbbd660523b0ab99e56fbfd861 | [
"Apache-2.0"
] | 5 | 2016-11-03T07:45:18.000Z | 2021-08-19T14:21:49.000Z | # coding: utf-8
"""
No descripton provided (generated by Swagger Codegen https://github.com/swagger-api/swagger-codegen)
OpenAPI spec version: 2.1.1+01d50e5
Generated by: https://github.com/swagger-api/swagger-codegen.git
Licensed under the Apache License, Version 2.0 (the "License");
you may not use this file except in compliance with the License.
You may obtain a copy of the License at
http://www.apache.org/licenses/LICENSE-2.0
Unless required by applicable law or agreed to in writing, software
distributed under the License is distributed on an "AS IS" BASIS,
WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
See the License for the specific language governing permissions and
limitations under the License.
"""
from __future__ import absolute_import
import sys
import os
import re
# python 2 and python 3 compatibility library
from six import iteritems
from ..configuration import Configuration
from ..api_client import ApiClient
class SystemgrokApi(object):
"""
NOTE: This class is auto generated by the swagger code generator program.
Do not edit the class manually.
Ref: https://github.com/swagger-api/swagger-codegen
"""
def __init__(self, api_client=None):
config = Configuration()
if api_client:
self.api_client = api_client
else:
if not config.api_client:
config.api_client = ApiClient()
self.api_client = config.api_client
def bulk_update_patterns(self, patterns, **kwargs):
"""
Add a list of new patterns
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.bulk_update_patterns(patterns, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param GrokPatternList patterns: (required)
:param Object replace: Replace all patterns with the new ones.
:return: None
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('callback'):
return self.bulk_update_patterns_with_http_info(patterns, **kwargs)
else:
(data) = self.bulk_update_patterns_with_http_info(patterns, **kwargs)
return data
def bulk_update_patterns_with_http_info(self, patterns, **kwargs):
"""
Add a list of new patterns
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.bulk_update_patterns_with_http_info(patterns, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param GrokPatternList patterns: (required)
:param Object replace: Replace all patterns with the new ones.
:return: None
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['patterns', 'replace']
all_params.append('callback')
all_params.append('_return_http_data_only')
params = locals()
for key, val in iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method bulk_update_patterns" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'patterns' is set
if ('patterns' not in params) or (params['patterns'] is None):
raise ValueError("Missing the required parameter `patterns` when calling `bulk_update_patterns`")
resource_path = '/system/grok'.replace('{format}', 'json')
path_params = {}
query_params = {}
if 'replace' in params:
query_params['replace'] = params['replace']
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'patterns' in params:
body_params = params['patterns']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.\
select_header_accept(['application/json'])
if not header_params['Accept']:
del header_params['Accept']
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.\
select_header_content_type([])
# Authentication setting
auth_settings = []
return self.api_client.call_api(resource_path, 'PUT',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type=None,
auth_settings=auth_settings,
callback=params.get('callback'),
_return_http_data_only=params.get('_return_http_data_only'))
def create_pattern(self, pattern, **kwargs):
"""
Add a new named pattern
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.create_pattern(pattern, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param GrokPatternSummary pattern: (required)
:return: None
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('callback'):
return self.create_pattern_with_http_info(pattern, **kwargs)
else:
(data) = self.create_pattern_with_http_info(pattern, **kwargs)
return data
def create_pattern_with_http_info(self, pattern, **kwargs):
"""
Add a new named pattern
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.create_pattern_with_http_info(pattern, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param GrokPatternSummary pattern: (required)
:return: None
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['pattern']
all_params.append('callback')
all_params.append('_return_http_data_only')
params = locals()
for key, val in iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method create_pattern" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'pattern' is set
if ('pattern' not in params) or (params['pattern'] is None):
raise ValueError("Missing the required parameter `pattern` when calling `create_pattern`")
resource_path = '/system/grok'.replace('{format}', 'json')
path_params = {}
query_params = {}
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'pattern' in params:
body_params = params['pattern']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.\
select_header_accept(['application/json'])
if not header_params['Accept']:
del header_params['Accept']
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.\
select_header_content_type([])
# Authentication setting
auth_settings = []
return self.api_client.call_api(resource_path, 'POST',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type=None,
auth_settings=auth_settings,
callback=params.get('callback'),
_return_http_data_only=params.get('_return_http_data_only'))
def list_grok_patterns(self, **kwargs):
"""
Get all existing grok patterns
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.list_grok_patterns(callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:return: GrokPatternList
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('callback'):
return self.list_grok_patterns_with_http_info(**kwargs)
else:
(data) = self.list_grok_patterns_with_http_info(**kwargs)
return data
def list_grok_patterns_with_http_info(self, **kwargs):
"""
Get all existing grok patterns
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.list_grok_patterns_with_http_info(callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:return: GrokPatternList
If the method is called asynchronously,
returns the request thread.
"""
all_params = []
all_params.append('callback')
all_params.append('_return_http_data_only')
params = locals()
for key, val in iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method list_grok_patterns" % key
)
params[key] = val
del params['kwargs']
resource_path = '/system/grok'.replace('{format}', 'json')
path_params = {}
query_params = {}
header_params = {}
form_params = []
local_var_files = {}
body_params = None
# HTTP header `Accept`
header_params['Accept'] = self.api_client.\
select_header_accept(['application/json'])
if not header_params['Accept']:
del header_params['Accept']
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.\
select_header_content_type([])
# Authentication setting
auth_settings = []
return self.api_client.call_api(resource_path, 'GET',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='GrokPatternList',
auth_settings=auth_settings,
callback=params.get('callback'),
_return_http_data_only=params.get('_return_http_data_only'))
def list_pattern(self, pattern_id, **kwargs):
"""
Get the existing grok pattern
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.list_pattern(pattern_id, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param Object pattern_id: (required)
:return: GrokPattern
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('callback'):
return self.list_pattern_with_http_info(pattern_id, **kwargs)
else:
(data) = self.list_pattern_with_http_info(pattern_id, **kwargs)
return data
def list_pattern_with_http_info(self, pattern_id, **kwargs):
"""
Get the existing grok pattern
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.list_pattern_with_http_info(pattern_id, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param Object pattern_id: (required)
:return: GrokPattern
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['pattern_id']
all_params.append('callback')
all_params.append('_return_http_data_only')
params = locals()
for key, val in iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method list_pattern" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'pattern_id' is set
if ('pattern_id' not in params) or (params['pattern_id'] is None):
raise ValueError("Missing the required parameter `pattern_id` when calling `list_pattern`")
resource_path = '/system/grok/{patternId}'.replace('{format}', 'json')
path_params = {}
if 'pattern_id' in params:
path_params['patternId'] = params['pattern_id']
query_params = {}
header_params = {}
form_params = []
local_var_files = {}
body_params = None
# HTTP header `Accept`
header_params['Accept'] = self.api_client.\
select_header_accept(['application/json'])
if not header_params['Accept']:
del header_params['Accept']
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.\
select_header_content_type([])
# Authentication setting
auth_settings = []
return self.api_client.call_api(resource_path, 'GET',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='GrokPattern',
auth_settings=auth_settings,
callback=params.get('callback'),
_return_http_data_only=params.get('_return_http_data_only'))
def remove_pattern(self, **kwargs):
"""
Remove an existing pattern by id
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.remove_pattern(callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:return: None
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('callback'):
return self.remove_pattern_with_http_info(**kwargs)
else:
(data) = self.remove_pattern_with_http_info(**kwargs)
return data
def remove_pattern_with_http_info(self, **kwargs):
"""
Remove an existing pattern by id
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.remove_pattern_with_http_info(callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:return: None
If the method is called asynchronously,
returns the request thread.
"""
all_params = []
all_params.append('callback')
all_params.append('_return_http_data_only')
params = locals()
for key, val in iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method remove_pattern" % key
)
params[key] = val
del params['kwargs']
resource_path = '/system/grok/{patternId}'.replace('{format}', 'json')
path_params = {}
query_params = {}
header_params = {}
form_params = []
local_var_files = {}
body_params = None
# HTTP header `Accept`
header_params['Accept'] = self.api_client.\
select_header_accept(['application/json'])
if not header_params['Accept']:
del header_params['Accept']
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.\
select_header_content_type([])
# Authentication setting
auth_settings = []
return self.api_client.call_api(resource_path, 'DELETE',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type=None,
auth_settings=auth_settings,
callback=params.get('callback'),
_return_http_data_only=params.get('_return_http_data_only'))
def update_pattern(self, pattern_id, pattern, **kwargs):
"""
Update an existing pattern
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.update_pattern(pattern_id, pattern, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param Object pattern_id: (required)
:param GrokPatternSummary pattern: (required)
:return: GrokPattern
If the method is called asynchronously,
returns the request thread.
"""
kwargs['_return_http_data_only'] = True
if kwargs.get('callback'):
return self.update_pattern_with_http_info(pattern_id, pattern, **kwargs)
else:
(data) = self.update_pattern_with_http_info(pattern_id, pattern, **kwargs)
return data
def update_pattern_with_http_info(self, pattern_id, pattern, **kwargs):
"""
Update an existing pattern
This method makes a synchronous HTTP request by default. To make an
asynchronous HTTP request, please define a `callback` function
to be invoked when receiving the response.
>>> def callback_function(response):
>>> pprint(response)
>>>
>>> thread = api.update_pattern_with_http_info(pattern_id, pattern, callback=callback_function)
:param callback function: The callback function
for asynchronous request. (optional)
:param Object pattern_id: (required)
:param GrokPatternSummary pattern: (required)
:return: GrokPattern
If the method is called asynchronously,
returns the request thread.
"""
all_params = ['pattern_id', 'pattern']
all_params.append('callback')
all_params.append('_return_http_data_only')
params = locals()
for key, val in iteritems(params['kwargs']):
if key not in all_params:
raise TypeError(
"Got an unexpected keyword argument '%s'"
" to method update_pattern" % key
)
params[key] = val
del params['kwargs']
# verify the required parameter 'pattern_id' is set
if ('pattern_id' not in params) or (params['pattern_id'] is None):
raise ValueError("Missing the required parameter `pattern_id` when calling `update_pattern`")
# verify the required parameter 'pattern' is set
if ('pattern' not in params) or (params['pattern'] is None):
raise ValueError("Missing the required parameter `pattern` when calling `update_pattern`")
resource_path = '/system/grok/{patternId}'.replace('{format}', 'json')
path_params = {}
if 'pattern_id' in params:
path_params['patternId'] = params['pattern_id']
query_params = {}
header_params = {}
form_params = []
local_var_files = {}
body_params = None
if 'pattern' in params:
body_params = params['pattern']
# HTTP header `Accept`
header_params['Accept'] = self.api_client.\
select_header_accept(['application/json'])
if not header_params['Accept']:
del header_params['Accept']
# HTTP header `Content-Type`
header_params['Content-Type'] = self.api_client.\
select_header_content_type([])
# Authentication setting
auth_settings = []
return self.api_client.call_api(resource_path, 'PUT',
path_params,
query_params,
header_params,
body=body_params,
post_params=form_params,
files=local_var_files,
response_type='GrokPattern',
auth_settings=auth_settings,
callback=params.get('callback'),
_return_http_data_only=params.get('_return_http_data_only'))
| 38.129272 | 109 | 0.55863 | 2,565 | 25,661 | 5.379727 | 0.080312 | 0.06957 | 0.02435 | 0.031307 | 0.910138 | 0.8955 | 0.88905 | 0.868469 | 0.851728 | 0.839554 | 0 | 0.000916 | 0.362067 | 25,661 | 672 | 110 | 38.186012 | 0.842028 | 0.33814 | 0 | 0.779221 | 1 | 0 | 0.14001 | 0.032119 | 0 | 0 | 0 | 0 | 0 | 1 | 0.042208 | false | 0 | 0.022727 | 0 | 0.126623 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
80667f3e580110f7862efdad73f035adcf775178 | 6,731 | py | Python | test/extensive_test.py | c0ver/pyBedGraph | 4c5db67f7b239c7653675dfc8385544abac49c1c | [
"MIT"
] | 18 | 2019-07-12T00:24:08.000Z | 2020-10-30T10:28:45.000Z | test/extensive_test.py | c0ver/pyBedGraph | 4c5db67f7b239c7653675dfc8385544abac49c1c | [
"MIT"
] | 2 | 2019-10-08T08:56:46.000Z | 2020-11-01T22:42:14.000Z | test/extensive_test.py | c0ver/pyBedGraph | 4c5db67f7b239c7653675dfc8385544abac49c1c | [
"MIT"
] | 2 | 2019-12-20T15:32:19.000Z | 2020-02-15T19:18:59.000Z | import time
import pyBedGraph
from pyBedGraph import BedGraph
print(f'Using {pyBedGraph.__file__}')
DEBUG = False
try:
bedGraph = BedGraph('test_files/hg38.chrom.sizes', 'test_files/ENCFF376VCU.bigWig', ['chr14'])
assert False
except RuntimeError:
print("Passed giving wrong chrom size test!")
start_time = time.time()
bedGraph = BedGraph('test_files/mm10.chrom.sizes', 'test_files/ENCFF376VCU.bedGraph', debug=DEBUG)
print(f"Loading ENCFF376VCU.bedgraph took {time.time() - start_time}")
# Takes 170 seconds on i5-7300HQ
bedGraph.load_chrom_data('chr1')
bedGraph.load_chrom_bins('chr1', 100)
bedGraph.load_chrom_data('chr4')
bedGraph.load_chrom_bins('chr4', 100)
if DEBUG:
total_num_intervals = 0
avg_interval_sizes = {
'chr1': 26.447609,
'chr10': 25.53135
}
for chrom in avg_interval_sizes:
assert abs(bedGraph.chromosome_map[chrom].avg_interval_size - avg_interval_sizes[chrom]) < 0.0001
test_intervals = [
['chr1', 0, 3000000],
['chr1', 3000000, 3100000],
['chr1', 3100000, 3200000],
['chr1', 3000297, 3000387]
]
correct = [0.0, 0.2783213414900005, 0.37037220081612465, 0.733430027961731]
result = bedGraph.stats('mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0, 0.27832134, 0.3703722, 0.61754806]
result = bedGraph.stats('approx_mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 4.400169849395752, 5.133600234985352, 0.733430027961731]
result = bedGraph.stats('max', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.0, 0.0, 0.733430027961731]
result = bedGraph.stats('min', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.5458894746933545, 0.645887192684785, 0.0]
result = bedGraph.stats('std', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 27832.1338, 37037.21976, 66.0087]
result = bedGraph.stats('sum', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
test_intervals = [
['chr4', 0, 50000],
['chr4', 3000000, 3100000],
['chr4', 3100000, 3200000],
['chr4', 3049939, 3049957]
]
correct = [0.0, 0.16491732227414846, 0.028100075026154518, 0.4027400016784668]
result = bedGraph.stats('mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0, 0.16491732, 0.02810007, 0.213423]
result = bedGraph.stats('approx_mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 2.8125500679016113, 2.200079917907715, 0.4027400016784668]
result = bedGraph.stats('max', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.0, 0.0, 0.4027400016784668]
result = bedGraph.stats('min', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.3551471309944084, 0.15098161797799015, 0.0]
result = bedGraph.stats('std', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 16491.7322, 2810.00742, 7.24932]
result = bedGraph.stats('sum', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
print("Passed all bedgraph tests!")
start_time = time.time()
bedGraph = BedGraph('test_files/mm10.chrom.sizes', 'test_files/ENCFF376VCU.bigWig', debug=DEBUG)
print(f"Loading ENCFF376VCU.bigWig took {time.time() - start_time}")
# Takes 69 seconds on i5-7300HQ
bedGraph.load_chrom_data('chr1')
bedGraph.load_chrom_bins('chr1', 100)
bedGraph.load_chrom_data('chr4')
bedGraph.load_chrom_bins('chr4', 100)
if DEBUG:
avg_interval_sizes = {
'chr1': 26.447609,
'chr10': 25.53135
}
for chrom in avg_interval_sizes:
assert abs(bedGraph.chromosome_map[chrom].avg_interval_size - avg_interval_sizes[chrom]) < 0.0001
test_intervals = [
['chr1', 0, 3000000],
['chr1', 3000000, 3100000],
['chr1', 3100000, 3200000],
['chr1', 3000297, 3000387]
]
correct = [0.0, 0.2783213414900005, 0.37037220081612465, 0.733430027961731]
result = bedGraph.stats('mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0, 0.27832134, 0.3703722, 0.61754806]
result = bedGraph.stats('approx_mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 4.400169849395752, 5.133600234985352, 0.733430027961731]
result = bedGraph.stats('max', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.0, 0.0, 0.733430027961731]
result = bedGraph.stats('min', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.5458894746933545, 0.645887192684785, 0.0]
result = bedGraph.stats('std', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
# LOWERED STANDARD FOR ROUNDING PROBLEMS
correct = [0.0, 27832.1338, 37037.21976, 66.0087]
result = bedGraph.stats('sum', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.1
test_intervals = [
['chr4', 0, 50000],
['chr4', 3000000, 3100000],
['chr4', 3100000, 3200000],
['chr4', 3049939, 3049957]
]
correct = [0.0, 0.16491732227414846, 0.028100075026154518, 0.4027400016784668]
result = bedGraph.stats('mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0, 0.16491732, 0.02810007, 0.213423]
result = bedGraph.stats('approx_mean', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 2.8125500679016113, 2.200079917907715, 0.4027400016784668]
result = bedGraph.stats('max', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.0, 0.0, 0.4027400016784668]
result = bedGraph.stats('min', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 0.3551471309944084, 0.15098161797799015, 0.0]
result = bedGraph.stats('std', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
correct = [0.0, 16491.7322, 2810.00742, 7.24932]
result = bedGraph.stats('sum', test_intervals)
for i in range(len(result)):
assert abs(result[i] - correct[i]) < 0.0001
print("Passed all bigwig tests!")
print("Passed all extensive tests!")
| 32.834146 | 105 | 0.696776 | 989 | 6,731 | 4.659252 | 0.12639 | 0.024306 | 0.018229 | 0.088542 | 0.930122 | 0.930122 | 0.894965 | 0.894965 | 0.894965 | 0.894965 | 0 | 0.22751 | 0.144555 | 6,731 | 204 | 106 | 32.995098 | 0.572768 | 0.014708 | 0 | 0.845679 | 0 | 0 | 0.098823 | 0.028817 | 0 | 0 | 0 | 0 | 0.166667 | 1 | 0 | false | 0.024691 | 0.018519 | 0 | 0.018519 | 0.04321 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
80915bdec5df549c72e6780f39986ebb9f674411 | 130 | py | Python | IOLoop/Reactor/__init__.py | hc-tec/redis-py | 28172eb4de2bfc61b0ff1023dbf7b52d4f4ba47c | [
"MIT"
] | 1 | 2021-11-24T07:54:17.000Z | 2021-11-24T07:54:17.000Z | IOLoop/Reactor/__init__.py | hc-tec/pydis | 28172eb4de2bfc61b0ff1023dbf7b52d4f4ba47c | [
"MIT"
] | 1 | 2021-11-13T15:08:14.000Z | 2021-11-13T15:08:14.000Z | IOLoop/Reactor/__init__.py | hc-tec/redis-py | 28172eb4de2bfc61b0ff1023dbf7b52d4f4ba47c | [
"MIT"
] | 1 | 2021-11-13T14:57:57.000Z | 2021-11-13T14:57:57.000Z |
from IOLoop.Reactor.reactor import Reactor
from IOLoop.Reactor.acceptor import Acceptor
from IOLoop.Reactor.event import ReEvent
| 26 | 44 | 0.853846 | 18 | 130 | 6.166667 | 0.388889 | 0.27027 | 0.459459 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.1 | 130 | 4 | 45 | 32.5 | 0.948718 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
80f1a3ecdc57614e984fb5e71f6c6b2dd2e5a724 | 74,569 | py | Python | tests/ut/python/dataset/test_datasets_generator.py | httpsgithu/mindspore | c29d6bb764e233b427319cb89ba79e420f1e2c64 | [
"Apache-2.0"
] | 1 | 2022-02-23T09:13:43.000Z | 2022-02-23T09:13:43.000Z | tests/ut/python/dataset/test_datasets_generator.py | 949144093/mindspore | c29d6bb764e233b427319cb89ba79e420f1e2c64 | [
"Apache-2.0"
] | null | null | null | tests/ut/python/dataset/test_datasets_generator.py | 949144093/mindspore | c29d6bb764e233b427319cb89ba79e420f1e2c64 | [
"Apache-2.0"
] | null | null | null | # Copyright 2019 Huawei Technologies Co., Ltd
#
# Licensed under the Apache License, Version 2.0 (the "License");
# you may not use this file except in compliance with the License.
# You may obtain a copy of the License at
#
# http://www.apache.org/licenses/LICENSE-2.0
#
# Unless required by applicable law or agreed to in writing, software
# distributed under the License is distributed on an "AS IS" BASIS,
# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.
# See the License for the specific language governing permissions and
# limitations under the License.
# ==============================================================================
import copy
import numpy as np
import pytest
import mindspore
import mindspore.common.dtype as mstype
import mindspore.dataset as ds
import mindspore.dataset.engine.iterators as it
from mindspore import log as logger
from mindspore import Tensor
import mindspore.ops as ops
# Generate 1d int numpy array from 0 - 63
def generator_1d():
for i in range(64):
yield (np.array([i]),)
class DatasetGenerator:
def __init__(self):
pass
def __getitem__(self, item):
return (np.array([item]),)
def __len__(self):
return 10
class DatasetGeneratorLarge:
def __init__(self):
self.data = np.array(range(4000))
def __getitem__(self, item):
return (self.data + item, self.data *10)
def __len__(self):
return 10
class DatasetGeneratorMixed:
def __init__(self):
pass
def __getitem__(self, item):
flatten = ops.Flatten()
x = Tensor(np.ones(shape=[2, 3]), mindspore.float32)
output = flatten(x)
return (output.asnumpy(),)
def __len__(self):
return 10
def test_generator_0():
"""
Test 1D Generator
"""
logger.info("Test 1D Generator : 0 - 63")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_1d, ["data"])
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(item["data"], golden)
i = i + 1
# Generate md int numpy array from [[0, 1], [2, 3]] to [[63, 64], [65, 66]]
def generator_md():
for i in range(64):
yield (np.array([[i, i + 1], [i + 2, i + 3]]),)
def test_generator_1():
"""
Test MD Generator
"""
logger.info("Test MD Generator : 0 - 63, with shape [2, 2]")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_md, ["data"])
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item["data"], golden)
i = i + 1
# Generate two columns, the first column is from Generator1D, the second column is from GeneratorMD
def generator_mc(maxid=64):
for i in range(maxid):
yield (np.array([i]), np.array([[i, i + 1], [i + 2, i + 3]]))
def test_generator_2():
"""
Test multi column generator
"""
logger.info("Test multi column generator")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc, ["col0", "col1"])
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(item["col0"], golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item["col1"], golden)
i = i + 1
def test_generator_3():
"""
Test 1D Generator + repeat(4)
"""
logger.info("Test 1D Generator : 0 - 63 + Repeat(4)")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_1d, ["data"])
data1 = data1.repeat(4)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(item["data"], golden)
i = i + 1
if i == 64:
i = 0
def test_generator_4():
"""
Test fixed size 1D Generator + batch
"""
logger.info("Test 1D Generator : 0 - 63 + batch(4)")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_1d, ["data"])
data1 = data1.batch(4)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([[i], [i + 1], [i + 2], [i + 3]])
np.testing.assert_array_equal(item["data"], golden)
i = i + 4
def generator_with_type(t):
for i in range(64):
yield (np.array([i], dtype=t),)
def type_tester(t):
logger.info("Test with Type {}".format(t.__name__))
# apply dataset operations
data1 = ds.GeneratorDataset((lambda: generator_with_type(t)), ["data"])
data1 = data1.batch(4)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t)
np.testing.assert_array_equal(item["data"], golden)
i = i + 4
def test_generator_5():
"""
Test 1D Generator on different data type
"""
logger.info("Test 1D Generator on all data types")
types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32, np.float64]
for t in types:
type_tester(t)
def type_tester_with_type_check(t, c):
logger.info("Test with Type {}".format(t.__name__))
# apply dataset operations
data1 = ds.GeneratorDataset((lambda: generator_with_type(t)), ["data"], column_types=[c])
data1 = data1.batch(4)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t)
np.testing.assert_array_equal(item["data"], golden)
i = i + 4
def test_generator_6():
"""
Test 1D Generator on different data type with type check
"""
logger.info("Test 1D Generator on all data types with type check")
np_types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32,
np.float64]
de_types = [mstype.int8, mstype.int16, mstype.int32, mstype.int64, mstype.uint8, mstype.uint16, mstype.uint32,
mstype.uint64, mstype.float32, mstype.float64]
for i, _ in enumerate(np_types):
type_tester_with_type_check(np_types[i], de_types[i])
def generator_with_type_2c(t):
for i in range(64):
yield (np.array([i], dtype=t), np.array([i], dtype=t))
def type_tester_with_type_check_2c(t, c):
logger.info("Test with Type {}".format(t.__name__))
# apply dataset operations
data1 = ds.GeneratorDataset((lambda: generator_with_type_2c(t)), ["data0", "data1"], column_types=c)
data1 = data1.batch(4)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t)
np.testing.assert_array_equal(item["data0"], golden)
i = i + 4
def test_generator_7():
"""
Test 2 column Generator on different data type with type check
"""
logger.info("Test 2 column Generator on all data types with type check")
np_types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32,
np.float64]
de_types = [mstype.int8, mstype.int16, mstype.int32, mstype.int64, mstype.uint8, mstype.uint16, mstype.uint32,
mstype.uint64, mstype.float32, mstype.float64]
for i, _ in enumerate(np_types):
type_tester_with_type_check_2c(np_types[i], [None, de_types[i]])
def test_generator_8():
"""
Test multi column generator with few mapops
"""
logger.info("Test multi column generator with mapops to check the order too")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"])
data1 = data1.map(operations=(lambda x: x * 3), input_columns="col0", output_columns="out0",
num_parallel_workers=2)
data1 = data1.map(operations=(lambda x: (x * 7, x)), input_columns="col1", output_columns=["out1", "out2"],
num_parallel_workers=2, column_order=["out0", "out1", "out2"])
data1 = data1.map(operations=(lambda x: x + 1), input_columns="out2", output_columns="out2",
num_parallel_workers=2)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i * 3])
np.testing.assert_array_equal(item["out0"], golden)
golden = np.array([[i * 7, (i + 1) * 7], [(i + 2) * 7, (i + 3) * 7]])
np.testing.assert_array_equal(item["out1"], golden)
golden = np.array([[i + 1, i + 2], [i + 3, i + 4]])
np.testing.assert_array_equal(item["out2"], golden)
i = i + 1
def test_generator_9():
"""
Test map column order when len(input_columns) == len(output_columns).
"""
logger.info("Test map column order when len(input_columns) == len(output_columns).")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["image", "label"])
data2 = ds.GeneratorDataset(generator_mc(2048), ["label", "image"])
data1 = data1.map(operations=(lambda x: x * 3), input_columns="label",
num_parallel_workers=4)
data2 = data2.map(operations=(lambda x: x * 3), input_columns="label",
num_parallel_workers=4)
# Expected column order is not changed.
# data1 = data[0] is "image" and data[1] is "label"
# data2 = data[0] is "label" and data[1] is "image"
i = 0
for data1, data2 in zip(data1, data2): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(data1[0].asnumpy(), golden)
golden = np.array([[i * 3, (i + 1) * 3], [(i + 2) * 3, (i + 3) * 3]])
np.testing.assert_array_equal(data1[1].asnumpy(), golden)
golden = np.array([i * 3])
np.testing.assert_array_equal(data2[0].asnumpy(), golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(data2[1].asnumpy(), golden)
i = i + 1
def test_generator_10():
"""
Test map column order when len(input_columns) != len(output_columns).
"""
logger.info("Test map column order when len(input_columns) != len(output_columns).")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"])
data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns="col1", output_columns=["out1", "out2"],
column_order=['col0', 'out1', 'out2'], num_parallel_workers=2)
# Expected column order is |col0|out1|out2|
i = 0
for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True):
golden = np.array([i])
np.testing.assert_array_equal(item[0], golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item[1], golden)
golden = np.array([[i * 5, (i + 1) * 5], [(i + 2) * 5, (i + 3) * 5]])
np.testing.assert_array_equal(item[2], golden)
i = i + 1
def test_generator_11():
"""
Test map column order when len(input_columns) != len(output_columns).
"""
logger.info("Test map column order when len(input_columns) != len(output_columns), "
"and column_order drops some columns.")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"])
data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns="col1", output_columns=["out1", "out2"],
column_order=['out1', 'out2'], num_parallel_workers=2)
# Expected column order is |out1|out2|
i = 0
for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True):
# len should be 2 because col0 is dropped (not included in column_order)
assert len(item) == 2
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item[0], golden)
golden = np.array([[i * 5, (i + 1) * 5], [(i + 2) * 5, (i + 3) * 5]])
np.testing.assert_array_equal(item[1], golden)
i = i + 1
def test_generator_12():
"""
Test map column order when input_columns and output_columns are None.
"""
logger.info("Test map column order when input_columns and output_columns are None.")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"])
data1 = data1.map(operations=(lambda x: (x * 5)), num_parallel_workers=2)
# Expected column order is |col0|col1|
i = 0
for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True):
assert len(item) == 2
golden = np.array([i * 5])
np.testing.assert_array_equal(item[0], golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item[1], golden)
i = i + 1
data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"])
data1 = data1.map(operations=(lambda x: (x * 5)), column_order=["col1", "col0"], num_parallel_workers=2)
# Expected column order is |col0|col1|
i = 0
for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True):
assert len(item) == 2
golden = np.array([i * 5])
np.testing.assert_array_equal(item[1], golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item[0], golden)
i = i + 1
def test_generator_13():
"""
Test map column order when input_columns is None.
"""
logger.info("Test map column order when input_columns is None.")
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"])
data1 = data1.map(operations=(lambda x: (x * 5)), output_columns=["out0"], num_parallel_workers=2)
# Expected column order is |out0|col1|
i = 0
for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True):
assert len(item) == 2
golden = np.array([i * 5])
np.testing.assert_array_equal(item[0], golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item[1], golden)
i = i + 1
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
# len should be 2 because col0 is dropped (not included in column_order)
assert len(item) == 2
golden = np.array([i * 5])
np.testing.assert_array_equal(item["out0"], golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item["col1"], golden)
i = i + 1
def test_generator_14():
"""
Test 1D Generator MP + CPP sampler
"""
logger.info("Test 1D Generator MP : 0 - 63")
# Sometimes there are some ITERATORS left in ITERATORS_LIST when run all UTs together,
# and cause core dump and blocking in this UT. Add cleanup() here to fix it.
it._cleanup() # pylint: disable=W0212
# Reduce memory needed by reducing queue size
prefetch_original = ds.config.get_prefetch_size()
ds.config.set_prefetch_size(1)
source = [(np.array([x]),) for x in range(256)]
ds1 = ds.GeneratorDataset(source, ["data"], sampler=ds.SequentialSampler(),
num_parallel_workers=4, max_rowsize=1).repeat(2)
i = 0
for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(data["data"], golden)
i = i + 1
if i == 256:
i = 0
ds.config.set_prefetch_size(prefetch_original)
def test_generator_15():
"""
Test 1D Generator MP + Python sampler
"""
logger.info("Test 1D Generator MP : 0 - 63")
## Reduce memory needed by reducing queue size
prefetch_original = ds.config.get_prefetch_size()
ds.config.set_prefetch_size(1)
sampler = [x for x in range(256)]
source = [(np.array([x]),) for x in range(256)]
ds1 = ds.GeneratorDataset(source, ["data"], sampler=sampler,
num_parallel_workers=4, max_rowsize=1).repeat(1)
i = 0
for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(data["data"], golden)
i = i + 1
if i == 256:
i = 0
ds.config.set_prefetch_size(prefetch_original)
def test_generator_16():
"""
Test multi column generator Mp + CPP sampler
"""
logger.info("Test multi column generator")
source = [(np.array([x]), np.array([x + 1])) for x in range(256)]
# apply dataset operations
data1 = ds.GeneratorDataset(source, ["col0", "col1"], sampler=ds.SequentialSampler())
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(item["col0"], golden)
golden = np.array([i + 1])
np.testing.assert_array_equal(item["col1"], golden)
i = i + 1
def test_generator_17():
"""
Test multi column generator Mp + Python sampler
"""
logger.info("Test multi column generator")
sampler = [x for x in range(256)]
source = [(np.array([x]), np.array([x + 1])) for x in range(256)]
# apply dataset operations
data1 = ds.GeneratorDataset(source, ["col0", "col1"], sampler=sampler)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(item["col0"], golden)
golden = np.array([i + 1])
np.testing.assert_array_equal(item["col1"], golden)
i = i + 1
def test_generator_18():
"""
Test multiprocessing flag (same as test 13 with python_multiprocessing=True flag)
"""
logger.info("Test map column order when input_columns is None.")
# Reduce shm usage by disabling this optimization
mem_original = ds.config.get_enable_shared_mem()
ds.config.set_enable_shared_mem(False)
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["col0", "col1"], python_multiprocessing=True)
data1 = data1.map(operations=(lambda x: (x * 5)), output_columns=["out0"], num_parallel_workers=2,
python_multiprocessing=True)
# Expected column order is |out0|col1|
i = 0
for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True):
assert len(item) == 2
golden = np.array([i * 5])
np.testing.assert_array_equal(item[0], golden)
golden = np.array([[i, i + 1], [i + 2, i + 3]])
np.testing.assert_array_equal(item[1], golden)
i = i + 1
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
# len should be 2 because col0 is dropped (not included in column_order)
assert len(item) == 2
golden = np.array([i * 5])
np.testing.assert_array_equal(item["out0"], golden)
ds.config.set_enable_shared_mem(mem_original)
def test_generator_19():
"""
Test multiprocessing flag with 2 different large columns
"""
logger.info("Test map column order when input_columns is None.")
# apply dataset operations
data1 = ds.GeneratorDataset(DatasetGeneratorLarge(), ["col0", "col1"], python_multiprocessing=True, shuffle=False)
# Expected column order is |out0|col1|
i = 0
for item in data1.create_tuple_iterator(num_epochs=1, output_numpy=True):
assert len(item) == 2
golden = np.array(range(4000)) + i
np.testing.assert_array_equal(item[0], golden)
golden = np.array(range(4000)) * 10
np.testing.assert_array_equal(item[1], golden)
i = i + 1
class RandomAccessDataset:
def __init__(self):
self.__data = np.random.sample((5, 1))
def __getitem__(self, item):
return self.__data[item]
def __len__(self):
return 5
class RandomAccessDatasetWithoutLen:
def __init__(self):
self.__data = np.random.sample((5, 1))
def __getitem__(self, item):
return self.__data[item]
class IterableDataset:
def __init__(self):
self.count = 0
self.max = 10
def __iter__(self):
return self
def __next__(self):
if self.count >= self.max:
raise StopIteration
self.count += 1
return (np.array(self.count),)
def test_generator_20():
"""
Test mappable and unmappable dataset as source for GeneratorDataset.
"""
logger.info("Test mappable and unmappable dataset as source for GeneratorDataset.")
# Mappable dataset
data1 = ds.GeneratorDataset(RandomAccessDataset(), ["col0"])
dataset_size1 = data1.get_dataset_size()
assert dataset_size1 == 5
# Mappable dataset without __len__
data2 = ds.GeneratorDataset(RandomAccessDatasetWithoutLen(), ["col0"])
try:
data2.get_dataset_size()
except RuntimeError as e:
assert "'__len__' method is required" in str(e)
# Unmappable dataset
data3 = ds.GeneratorDataset(IterableDataset(), ["col0"])
dataset_size3 = data3.get_dataset_size()
assert dataset_size3 == 10
def test_generator_error_1():
def generator_np():
for i in range(64):
yield (np.array([{i}]),)
with pytest.raises(RuntimeError) as info:
data1 = ds.GeneratorDataset(generator_np, ["data"])
for _ in data1:
pass
assert "Data type of 1th item of the input or its converted Numpy array is expected" in str(info.value)
def test_generator_error_2():
def generator_np():
for i in range(64):
yield ({i},)
with pytest.raises(RuntimeError) as info:
data1 = ds.GeneratorDataset(generator_np, ["data"])
for _ in data1:
pass
assert "Data type of 1th item of the input or its converted Numpy array is expected" in str(info.value)
def test_generator_error_3():
with pytest.raises(ValueError) as info:
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["label", "image"])
data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns=["label"], output_columns=["out1", "out2"],
num_parallel_workers=2)
for _ in data1:
pass
assert "When length of input_columns and output_columns are not equal, column_order must be specified." in \
str(info.value)
def test_generator_error_4():
with pytest.raises(RuntimeError) as info:
# apply dataset operations
data1 = ds.GeneratorDataset(generator_mc(2048), ["label", "image"])
data1 = data1.map(operations=(lambda x: (x, x * 5)), input_columns=["label"],
num_parallel_workers=2)
for _ in data1:
pass
assert "the number of columns returned in 'map' operations should match the number of 'output_columns'"\
in str(info.value)
def test_generator_sequential_sampler():
source = [(np.array([x]),) for x in range(64)]
ds1 = ds.GeneratorDataset(source, ["data"], sampler=ds.SequentialSampler())
i = 0
for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(data["data"], golden)
i = i + 1
def test_generator_random_sampler():
source = [(np.array([x]),) for x in range(64)]
ds1 = ds.GeneratorDataset(source, ["data"], shuffle=True)
for _ in ds1.create_dict_iterator(num_epochs=1): # each data is a dictionary
pass
def test_generator_distributed_sampler():
source = [(np.array([x]),) for x in range(64)]
for sid in range(8):
ds1 = ds.GeneratorDataset(source, ["data"], shuffle=False, num_shards=8, shard_id=sid)
i = sid
for data in ds1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([i])
np.testing.assert_array_equal(data["data"], golden)
i = i + 8
def test_generator_num_samples():
source = [(np.array([x]),) for x in range(64)]
num_samples = 32
ds1 = ds.GeneratorDataset(source, ["data"], sampler=ds.SequentialSampler(num_samples=num_samples))
ds2 = ds.GeneratorDataset(source, ["data"], sampler=[i for i in range(32)], num_samples=num_samples)
ds3 = ds.GeneratorDataset(generator_1d, ["data"], num_samples=num_samples)
count = 0
for _ in ds1.create_dict_iterator(num_epochs=1):
count = count + 1
assert count == num_samples
count = 0
for _ in ds2.create_dict_iterator(num_epochs=1):
count = count + 1
assert count == num_samples
count = 0
for _ in ds3.create_dict_iterator(num_epochs=1):
count = count + 1
assert count == num_samples
def test_generator_num_samples_underflow():
source = [(np.array([x]),) for x in range(64)]
num_samples = 256
ds2 = ds.GeneratorDataset(source, ["data"], sampler=[i for i in range(64)], num_samples=num_samples)
ds3 = ds.GeneratorDataset(generator_1d, ["data"], num_samples=num_samples)
count = 0
for _ in ds2.create_dict_iterator(num_epochs=1):
count = count + 1
assert count == 64
count = 0
for _ in ds3.create_dict_iterator(num_epochs=1):
count = count + 1
assert count == 64
def type_tester_with_type_check_2c_schema(t, c):
logger.info("Test with Type {}".format(t.__name__))
schema = ds.Schema()
schema.add_column("data0", c[0])
schema.add_column("data1", c[1])
# apply dataset operations
data1 = ds.GeneratorDataset((lambda: generator_with_type_2c(t)), schema=schema)
data1 = data1.batch(4)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array([[i], [i + 1], [i + 2], [i + 3]], dtype=t)
np.testing.assert_array_equal(item["data0"], golden)
i = i + 4
def test_generator_schema():
"""
Test 2 column Generator on different data type with type check with schema input
"""
logger.info("Test 2 column Generator on all data types with type check")
np_types = [np.int8, np.int16, np.int32, np.int64, np.uint8, np.uint16, np.uint32, np.uint64, np.float32,
np.float64]
de_types = [mstype.int8, mstype.int16, mstype.int32, mstype.int64, mstype.uint8, mstype.uint16, mstype.uint32,
mstype.uint64, mstype.float32, mstype.float64]
for i, _ in enumerate(np_types):
type_tester_with_type_check_2c_schema(np_types[i], [de_types[i], de_types[i]])
def test_generator_dataset_size_0():
"""
Test GeneratorDataset get_dataset_size by iterator method.
"""
logger.info("Test 1D Generator : 0 - 63 get_dataset_size")
data1 = ds.GeneratorDataset(generator_1d, ["data"])
data_size = data1.get_dataset_size()
num_rows = 0
for _ in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
num_rows = num_rows + 1
assert data_size == num_rows
def test_generator_dataset_size_1():
"""
Test GeneratorDataset get_dataset_size by __len__ method.
"""
logger.info("Test DatasetGenerator get_dataset_size")
dataset_generator = DatasetGenerator()
data1 = ds.GeneratorDataset(dataset_generator, ["data"])
data_size = data1.get_dataset_size()
num_rows = 0
for _ in data1.create_dict_iterator(num_epochs=1):
num_rows = num_rows + 1
assert data_size == num_rows
def test_generator_dataset_size_2():
"""
Test GeneratorDataset + repeat get_dataset_size
"""
logger.info("Test 1D Generator + repeat get_dataset_size")
data1 = ds.GeneratorDataset(generator_1d, ["data"])
data1 = data1.repeat(2)
data_size = data1.get_dataset_size()
num_rows = 0
for _ in data1.create_dict_iterator(num_epochs=1):
num_rows = num_rows + 1
assert data_size == num_rows
def test_generator_dataset_size_3():
"""
Test GeneratorDataset + batch get_dataset_size
"""
logger.info("Test 1D Generator + batch get_dataset_size")
data1 = ds.GeneratorDataset(generator_1d, ["data"])
data1 = data1.batch(4)
data_size = data1.get_dataset_size()
num_rows = 0
for _ in data1.create_dict_iterator(num_epochs=1):
num_rows += 1
assert data_size == num_rows
def test_generator_dataset_size_4():
"""
Test GeneratorDataset + num_shards
"""
logger.info("Test 1D Generator : 0 - 63 + num_shards get_dataset_size")
dataset_generator = DatasetGenerator()
data1 = ds.GeneratorDataset(dataset_generator, ["data"], num_shards=3, shard_id=0)
data_size = data1.get_dataset_size()
num_rows = 0
for _ in data1.create_dict_iterator(num_epochs=1): # each data is a dictionary
num_rows = num_rows + 1
assert data_size == num_rows
def test_generator_dataset_size_5():
"""
Test get_dataset_size after create_dict_iterator
"""
logger.info("Test get_dataset_size after create_dict_iterator")
dataset_generator = DatasetGenerator()
data1 = ds.GeneratorDataset(dataset_generator, ["data"], num_shards=3, shard_id=0)
num_rows = 0
for _ in data1.create_dict_iterator(num_epochs=1): # each data is a dictionary
num_rows = num_rows + 1
data_size = data1.get_dataset_size()
assert data_size == num_rows
def manual_test_generator_keyboard_interrupt():
"""
Test keyboard_interrupt
"""
logger.info("Test 1D Generator MP : 0 - 63")
class MyDS():
def __getitem__(self, item):
while True:
pass
def __len__(self):
return 1024
ds1 = ds.GeneratorDataset(MyDS(), ["data"], num_parallel_workers=4).repeat(2)
for _ in ds1.create_dict_iterator(num_epochs=1): # each data is a dictionary
pass
def test_explicit_deepcopy():
"""
Test explicit_deepcopy
"""
logger.info("Test explicit_deepcopy")
ds1 = ds.NumpySlicesDataset([1, 2], shuffle=False)
ds2 = copy.deepcopy(ds1)
for d1, d2 in zip(ds1, ds2):
assert d1 == d2
def test_func_generator_dataset_005():
"""
generator: class __getitem__
"""
result = [np.random.randn(242, 242, 242), np.random.randn(42, 24, 442)]
class MyData():
def __init__(self, input_para):
self.data = input_para
def __getitem__(self, item):
return (Tensor(self.data[0]), Tensor(self.data[1]))
def __len__(self):
return 2
column_names = ["col1", "col2"]
dataset = ds.GeneratorDataset(MyData(result), column_names)
i = 0
for data in dataset.create_dict_iterator(num_epochs=1, output_numpy=True):
assert "col1" in str(data.keys())
assert (data["col1"] == result[0]).all()
assert (data["col2"] == result[1]).all()
i += 1
assert i == 2
def test_func_generator_dataset_with_zip_source():
"""
Feature: verify the source is zip
Description: the source input is zip
Expectation: success
"""
def synthetic_data(w, b, num_examples):
"""生成 y = Xw + b + 噪声。"""
X = np.random.normal(0, 1, (num_examples, len(w)))
y = np.matmul(X, w) + b
y += np.random.normal(0, 0.01, y.shape)
return X.astype(np.float32), y.reshape((-1, 1)).astype(np.float32)
true_w = np.array([2, -3.4])
true_b = 4.2
features, labels = synthetic_data(true_w, true_b, 10)
def load_array(data_arrays, column_names, batch_size, is_train=True):
"""构造一个MindSpore数据迭代器。"""
dataset = ds.GeneratorDataset(data_arrays, column_names, shuffle=is_train)
dataset = dataset.batch(batch_size)
return dataset
batch_size = 2
dataset = load_array(zip(features, labels), ['features', 'labels'], batch_size)
count = 0
epochs = 10
dataset_iter = dataset.create_dict_iterator(num_epochs=epochs, output_numpy=True)
for _ in range(epochs):
for _ in dataset_iter:
count += 1
assert count == 50
def test_generator_mixed_operator():
"""
Feature: Test adding computing operator into user defined dataset
Description: will decrease num_parallel_worker into 1
Expectation: success
"""
logger.info("Test adding computing operator into user defined dataset.")
# create dataset
data1 = ds.GeneratorDataset(DatasetGeneratorMixed(), ["col0"], shuffle=False, python_multiprocessing=False)
assert data1.num_parallel_workers == 1
for _ in data1.create_tuple_iterator(num_epochs=1):
pass
def test_generator_single_input_0():
"""
Feature: Test single int input
Description: input int
Expectation: success
"""
def generator_int():
for i in range(64):
yield i
class RandomAccessDatasetInner:
def __init__(self):
self.__data = [i for i in range(64)]
def __getitem__(self, item):
return self.__data[item]
def __len__(self):
return 64
class SequentialAccessDataset:
def __init__(self):
self.__data = [i for i in range(64)]
self.__index = 0
def __next__(self):
if self.__index >= 64:
raise StopIteration
item = self.__data[self.__index]
self.__index += 1
return item
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 64
def assert_generator_single_input_0(data):
# apply dataset operations
data1 = ds.GeneratorDataset(data, ["data"], shuffle=False)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array(i)
np.testing.assert_equal(item["data"], golden)
i = i + 1
assert_generator_single_input_0(generator_int)
assert_generator_single_input_0(RandomAccessDatasetInner())
assert_generator_single_input_0(SequentialAccessDataset())
def test_generator_single_input_1():
"""
Feature: Test single float input
Description: input float
Expectation: success
"""
def generator_float():
for i in range(64):
yield i * 0.1
class RandomAccessDatasetInner:
def __init__(self):
self.__data = [i for i in range(64)]
def __getitem__(self, item):
return self.__data[item] * 0.1
def __len__(self):
return 64
class SequentialAccessDataset:
def __init__(self):
self.__data = [i for i in range(64)]
self.__index = 0
def __next__(self):
if self.__index >= 64:
raise StopIteration
item = self.__data[self.__index] * 0.1
self.__index += 1
return item
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 64
def assert_generator_single_input_1(data):
# apply dataset operations
data1 = ds.GeneratorDataset(data, ["data"], shuffle=False)
i = 0.0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.array(i)
np.testing.assert_almost_equal(item["data"], golden)
i = i + 0.1
assert_generator_single_input_1(generator_float)
assert_generator_single_input_1(RandomAccessDatasetInner())
assert_generator_single_input_1(SequentialAccessDataset())
def test_generator_single_input_2():
"""
Feature: Test single str input
Description: input str
Expectation: success
"""
def generator_str():
for i in range(64):
yield chr(ord('a') + i)
class RandomAccessDatasetInner:
def __init__(self):
self.__data = [i for i in range(64)]
def __getitem__(self, item):
return chr(ord('a') + self.__data[item])
def __len__(self):
return 64
class SequentialAccessDataset:
def __init__(self):
self.__data = [i for i in range(64)]
self.__index = 0
def __next__(self):
if self.__index >= 64:
raise StopIteration
item = chr(ord('a') + self.__data[self.__index])
self.__index += 1
return item
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 64
def assert_generator_single_input_2(data):
# apply dataset operations
data1 = ds.GeneratorDataset(data, ["data"], shuffle=False)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
s = chr(ord('a') + i)
golden = np.array(bytes(s, encoding='utf8'))
np.testing.assert_array_equal(item["data"], golden)
i = i + 1
assert_generator_single_input_2(generator_str)
assert_generator_single_input_2(RandomAccessDatasetInner())
assert_generator_single_input_2(SequentialAccessDataset())
def test_generator_single_input_3():
"""
Feature: Test single bytes input
Description: input bytes
Expectation: success
"""
def generator_bytes():
for i in range(64):
yield bytes('a' * i, encoding='UTF-8')
class RandomAccessDatasetInner:
def __init__(self):
self.__data = [bytes('a' * i, encoding='UTF-8') for i in range(64)]
def __getitem__(self, item):
return self.__data[item]
def __len__(self):
return 64
class SequentialAccessDataset:
def __init__(self):
self.__data = [bytes('a' * i, encoding='UTF-8') for i in range(64)]
self.__index = 0
def __next__(self):
if self.__index >= 64:
raise StopIteration
item = self.__data[self.__index]
self.__index += 1
return item
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 64
def assert_generator_single_input_3(data):
# apply dataset operations
data1 = ds.GeneratorDataset(data, ["data"], shuffle=False)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
b = bytes('a' * i, encoding='UTF-8')
golden = np.frombuffer(b, dtype=np.uint8)
np.testing.assert_array_equal(item["data"], golden)
i = i + 1
assert_generator_single_input_3(generator_bytes)
assert_generator_single_input_3(RandomAccessDatasetInner())
assert_generator_single_input_3(SequentialAccessDataset())
def test_generator_single_input_4():
"""
Feature: Test single Tensor input
Description: input Tensor
Expectation: success
"""
def generator_tensor():
for i in range(64):
yield Tensor(i)
class RandomAccessDatasetInner:
def __init__(self):
self.__data = [Tensor(i) for i in range(64)]
def __getitem__(self, item):
return self.__data[item]
def __len__(self):
return 64
class SequentialAccessDataset:
def __init__(self):
self.__data = [Tensor(i) for i in range(64)]
self.__index = 0
def __next__(self):
if self.__index >= 64:
raise StopIteration
item = self.__data[self.__index]
self.__index += 1
return item
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 64
def assert_generator_single_input_4(data):
# apply dataset operations
data1 = ds.GeneratorDataset(data, ["data"], shuffle=False)
i = 0
for item in data1.create_dict_iterator(num_epochs=1): # each data is a dictionary
golden = Tensor(i)
assert item["data"] == golden
i = i + 1
assert_generator_single_input_4(generator_tensor)
assert_generator_single_input_4(RandomAccessDatasetInner())
assert_generator_single_input_4(SequentialAccessDataset())
def test_generator_single_input_5():
"""
Feature: Test single np.array input
Description: input np.array
Expectation: success
"""
def generator_np():
for i in range(64):
yield np.ones(i)
class RandomAccessDatasetInner:
def __init__(self):
self.__data = [np.ones(i) for i in range(64)]
def __getitem__(self, item):
return self.__data[item]
def __len__(self):
return 64
class SequentialAccessDataset:
def __init__(self):
self.__data = [np.ones(i) for i in range(64)]
self.__index = 0
def __next__(self):
if self.__index >= 64:
raise StopIteration
item = self.__data[self.__index]
self.__index += 1
return item
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 64
def assert_generator_single_input_5(data):
# apply dataset operations
data1 = ds.GeneratorDataset(data, ["data"], shuffle=False)
i = 0
for item in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
golden = np.ones(i)
np.testing.assert_array_equal(item["data"], golden)
i = i + 1
assert_generator_single_input_5(generator_np)
assert_generator_single_input_5(RandomAccessDatasetInner())
assert_generator_single_input_5(SequentialAccessDataset())
def test_generator_single_input_6():
"""
Feature: Test single np.array input whose dtype is object
Description: input np.array
Expectation: throw exception
"""
def generator_nested_np():
for i in range(64):
yield np.array([[i, i + 1], [i, i + 1, i + 2]])
class RandomAccessDatasetInner:
def __init__(self):
self.__data = [np.array([[i, i + 1], [i, i + 1, i + 2]]) for i in range(64)]
def __getitem__(self, item):
return self.__data[item]
def __len__(self):
return 64
class SequentialAccessDatasetInner:
def __init__(self):
self.__data = [np.array([[i, i + 1], [i, i + 1, i + 2]]) for i in range(64)]
self.__index = 0
def __next__(self):
if self.__index >= 64:
raise StopIteration
item = self.__data[self.__index]
self.__index += 1
return item
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 64
def assert_generator_single_input_6(data):
# apply dataset operations
with pytest.raises(RuntimeError) as info:
data1 = ds.GeneratorDataset(data, ["data"], shuffle=False)
for _ in data1.create_dict_iterator(num_epochs=1, output_numpy=True): # each data is a dictionary
pass
assert " Data type of the input or its converted Numpy array is expected" in str(info.value)
assert_generator_single_input_6(generator_nested_np)
assert_generator_single_input_6(RandomAccessDatasetInner())
assert_generator_single_input_6(SequentialAccessDatasetInner())
def test_generator_with_single_numpy():
"""
Feature: Test GeneratorDataset with single numpy and multi columns when use __getitem__
Description: single numpy, tuple numpy with single columns and multi columns
Expectation: success
"""
class get_dataset_generator:
def __init__(self, value):
np.random.seed(58)
self.__value = value
def __getitem__(self, index):
return self.__value
def __len__(self):
return 20
def test_generator_one_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False, num_parallel_workers=number,
python_multiprocessing=process_flag)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == value).all()
count += 1
assert count == 20
# test user define one column
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_one_column(numpy_1)
test_generator_one_column(numpy_2)
test_generator_one_column(numpy_3)
test_generator_one_column(numpy_4)
test_generator_one_column(numpy_5)
test_generator_one_column(numpy_6)
test_generator_one_column(numpy_7)
test_generator_one_column(numpy_8)
test_generator_one_column(numpy_9)
test_generator_one_column(numpy_10)
tuple_1 = (numpy_7,)
dataset_generator = get_dataset_generator(tuple_1)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == tuple_1[0]).all()
count += 1
assert count == 20
tuple_2 = (numpy_6, numpy_7)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value)
tuple_4 = (numpy_4, numpy_5, numpy_6, numpy_7)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_4)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:4" in str(info.value)
# test user define two column
def test_generator_two_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False, num_parallel_workers=number,
python_multiprocessing=process_flag)
count = 0
with pytest.raises(RuntimeError) as info:
for data in dataset.create_dict_iterator(output_numpy=True):
print(data)
count += 1
assert count == 20
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:2 and number of returned NumPy array is:1" in str(info.value)
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_two_column(numpy_1)
test_generator_two_column(numpy_2)
test_generator_two_column(numpy_3)
test_generator_two_column(numpy_4)
test_generator_two_column(numpy_5)
test_generator_two_column(numpy_6)
test_generator_two_column(numpy_7)
test_generator_two_column(numpy_8)
test_generator_two_column(numpy_9)
test_generator_two_column(numpy_10)
tuple_1 = (numpy_7,)
test_generator_two_column(tuple_1)
tuple_2 = (numpy_2, numpy_3)
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == numpy_2).all()
assert (data["label"] == numpy_3).all()
count += 1
assert count == 20
tuple_3 = (numpy_4, numpy_5, numpy_6)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:2 and number of returned NumPy array is:3" in str(info.value)
# test user define three column
def test_generator_three_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False,
num_parallel_workers=number, python_multiprocessing=process_flag)
count = 0
with pytest.raises(RuntimeError) as info:
for data in dataset.create_dict_iterator(output_numpy=True):
print(data)
count += 1
assert count == 20
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:3 and number of returned NumPy array is:1" in str(info.value)
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_three_column(numpy_1)
test_generator_three_column(numpy_2)
test_generator_three_column(numpy_3)
test_generator_three_column(numpy_4)
test_generator_three_column(numpy_5)
test_generator_three_column(numpy_6)
test_generator_three_column(numpy_7)
test_generator_three_column(numpy_8)
test_generator_three_column(numpy_9)
test_generator_three_column(numpy_10)
tuple_1 = (numpy_7,)
test_generator_three_column(tuple_1)
tuple_2 = (numpy_2, numpy_3)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:3 and number of returned NumPy array is:2" in str(info.value)
tuple_3 = (numpy_4, numpy_5, numpy_6)
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == numpy_4).all()
assert (data["label"] == numpy_5).all()
assert (data["label2"] == numpy_6).all()
count += 1
assert count == 20
def test_generator_with_single_numpy_with_next():
"""
Feature: Test GeneratorDataset with single numpy and multi columns when use __next__
Description: single numpy, tuple numpy with single columns and multi columns
Expectation: success
"""
class get_dataset_generator:
def __init__(self, value):
np.random.seed(58)
self.__value = value
self.__index = 0
def __next__(self):
if self.__index >= 20:
raise StopIteration
self.__index += 1
return self.__value
def __iter__(self):
self.__index = 0
return self
def __len__(self):
return 20
def test_generator_one_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False, num_parallel_workers=number,
python_multiprocessing=process_flag)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == value).all()
count += 1
assert count == 20
# test user define one column
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_one_column(numpy_1)
test_generator_one_column(numpy_2)
test_generator_one_column(numpy_3)
test_generator_one_column(numpy_4)
test_generator_one_column(numpy_5)
test_generator_one_column(numpy_6)
test_generator_one_column(numpy_7)
test_generator_one_column(numpy_8)
test_generator_one_column(numpy_9)
test_generator_one_column(numpy_10)
tuple_1 = (numpy_7,)
dataset_generator = get_dataset_generator(tuple_1)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == tuple_1[0]).all()
count += 1
assert count == 20
tuple_2 = (numpy_6, numpy_7)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value)
tuple_3 = (numpy_1, numpy_2)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value)
tuple_4 = (numpy_4, numpy_5, numpy_6, numpy_7)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_4)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:4" in str(info.value)
# test user define two column
def test_generator_two_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False, num_parallel_workers=number,
python_multiprocessing=process_flag)
count = 0
with pytest.raises(RuntimeError) as info:
for data in dataset.create_dict_iterator(output_numpy=True):
print(data)
count += 1
assert count == 20
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:2 and number of returned NumPy array is:1" in str(info.value)
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_two_column(numpy_1)
test_generator_two_column(numpy_2)
test_generator_two_column(numpy_3)
test_generator_two_column(numpy_4)
test_generator_two_column(numpy_5)
test_generator_two_column(numpy_6)
test_generator_two_column(numpy_7)
test_generator_two_column(numpy_8)
test_generator_two_column(numpy_9)
test_generator_two_column(numpy_10)
tuple_1 = (numpy_7,)
test_generator_two_column(tuple_1)
tuple_2 = (numpy_2, numpy_3)
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == numpy_2).all()
assert (data["label"] == numpy_3).all()
count += 1
assert count == 20
tuple_3 = (numpy_4, numpy_5, numpy_6)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:2 and number of returned NumPy array is:3" in str(info.value)
# test user define three column
def test_generator_three_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False,
num_parallel_workers=number, python_multiprocessing=process_flag)
count = 0
with pytest.raises(RuntimeError) as info:
for data in dataset.create_dict_iterator(output_numpy=True):
print(data)
count += 1
assert count == 20
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:3 and number of returned NumPy array is:1" in str(info.value)
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_three_column(numpy_1)
test_generator_three_column(numpy_2)
test_generator_three_column(numpy_3)
test_generator_three_column(numpy_4)
test_generator_three_column(numpy_5)
test_generator_three_column(numpy_6)
test_generator_three_column(numpy_7)
test_generator_three_column(numpy_8)
test_generator_three_column(numpy_9)
test_generator_three_column(numpy_10)
tuple_1 = (numpy_7,)
test_generator_three_column(tuple_1)
tuple_2 = (numpy_2, numpy_3)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:3 and number of returned NumPy array is:2" in str(info.value)
tuple_3 = (numpy_4, numpy_5, numpy_6)
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == numpy_4).all()
assert (data["label"] == numpy_5).all()
assert (data["label2"] == numpy_6).all()
count += 1
assert count == 20
def test_generator_with_single_numpy_with_yield():
"""
Feature: Test GeneratorDataset with single numpy and multi columns when use yield
Description: single numpy, tuple numpy with single columns and multi columns
Expectation: success
"""
def get_dataset_generator(value):
for _ in range(20):
yield value
def test_generator_one_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False, num_parallel_workers=number,
python_multiprocessing=process_flag)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == value).all()
count += 1
assert count == 20
# test user define one column
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_one_column(numpy_1)
test_generator_one_column(numpy_2)
test_generator_one_column(numpy_3)
test_generator_one_column(numpy_4)
test_generator_one_column(numpy_5)
test_generator_one_column(numpy_6)
test_generator_one_column(numpy_7)
test_generator_one_column(numpy_8)
test_generator_one_column(numpy_9)
test_generator_one_column(numpy_10)
tuple_1 = (numpy_7,)
dataset_generator = get_dataset_generator(tuple_1)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == tuple_1[0]).all()
count += 1
assert count == 20
tuple_2 = (numpy_6, numpy_7)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value)
tuple_3 = (numpy_1, numpy_2)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:2" in str(info.value)
tuple_4 = (numpy_4, numpy_5, numpy_6, numpy_7)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_4)
dataset = ds.GeneratorDataset(dataset_generator, ["data"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:1 and number of returned NumPy array is:4" in str(info.value)
# test user define two column
def test_generator_two_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False, num_parallel_workers=number,
python_multiprocessing=process_flag)
count = 0
with pytest.raises(RuntimeError) as info:
for data in dataset.create_dict_iterator(output_numpy=True):
print(data)
count += 1
assert count == 20
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:2 and number of returned NumPy array is:1" in str(info.value)
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_two_column(numpy_1)
test_generator_two_column(numpy_2)
test_generator_two_column(numpy_3)
test_generator_two_column(numpy_4)
test_generator_two_column(numpy_5)
test_generator_two_column(numpy_6)
test_generator_two_column(numpy_7)
test_generator_two_column(numpy_8)
test_generator_two_column(numpy_9)
test_generator_two_column(numpy_10)
tuple_1 = (numpy_7,)
test_generator_two_column(tuple_1)
tuple_2 = (numpy_2, numpy_3)
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == numpy_2).all()
assert (data["label"] == numpy_3).all()
count += 1
assert count == 20
tuple_3 = (numpy_4, numpy_5, numpy_6)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:2 and number of returned NumPy array is:3" in str(info.value)
# test user define three column
def test_generator_three_column(value):
number = np.random.randint(1, 4)
process_flag = False
if number > 1 and number % 2 == 0:
process_flag = True
dataset_generator = get_dataset_generator(value)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False,
num_parallel_workers=number, python_multiprocessing=process_flag)
count = 0
with pytest.raises(RuntimeError) as info:
for data in dataset.create_dict_iterator(output_numpy=True):
print(data)
count += 1
assert count == 20
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:3 and number of returned NumPy array is:1" in str(info.value)
numpy_1 = np.array(1)
numpy_2 = np.array([1])
numpy_3 = np.array([1, 2])
numpy_4 = np.array([1, 2, 3])
numpy_5 = np.array([[1], [2]])
numpy_6 = np.array([[1, 2], [2, 3]])
numpy_7 = np.array([[1, 2, 3], [2, 3, 4]])
numpy_8 = np.array([[1], [2], [3]])
numpy_9 = np.array([[1, 2], [2, 3], [3, 4]])
numpy_10 = np.array([[1, 2, 3], [2, 3, 4], [3, 4, 5]])
test_generator_three_column(numpy_1)
test_generator_three_column(numpy_2)
test_generator_three_column(numpy_3)
test_generator_three_column(numpy_4)
test_generator_three_column(numpy_5)
test_generator_three_column(numpy_6)
test_generator_three_column(numpy_7)
test_generator_three_column(numpy_8)
test_generator_three_column(numpy_9)
test_generator_three_column(numpy_10)
tuple_1 = (numpy_7,)
test_generator_three_column(tuple_1)
tuple_2 = (numpy_2, numpy_3)
with pytest.raises(RuntimeError) as info:
dataset_generator = get_dataset_generator(tuple_2)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False)
for data in dataset.create_dict_iterator(output_numpy=True):
print(data["data"])
assert "the 'source' of 'GeneratorDataset' should return same number of NumPy arrays as specified in " \
"column_names," in str(info.value)
assert "the size of column_names is:3 and number of returned NumPy array is:2" in str(info.value)
tuple_3 = (numpy_4, numpy_5, numpy_6)
dataset_generator = get_dataset_generator(tuple_3)
dataset = ds.GeneratorDataset(dataset_generator, ["data", "label", "label2"], shuffle=False)
count = 0
for data in dataset.create_dict_iterator(output_numpy=True):
assert (data["data"] == numpy_4).all()
assert (data["label"] == numpy_5).all()
assert (data["label2"] == numpy_6).all()
count += 1
assert count == 20
if __name__ == "__main__":
test_generator_0()
test_generator_1()
test_generator_2()
test_generator_3()
test_generator_4()
test_generator_5()
test_generator_6()
test_generator_7()
test_generator_8()
test_generator_9()
test_generator_10()
test_generator_11()
test_generator_12()
test_generator_13()
test_generator_14()
test_generator_15()
test_generator_16()
test_generator_17()
test_generator_18()
test_generator_19()
test_generator_error_1()
test_generator_error_2()
test_generator_error_3()
test_generator_error_4()
test_generator_sequential_sampler()
test_generator_distributed_sampler()
test_generator_random_sampler()
test_generator_num_samples()
test_generator_num_samples_underflow()
test_generator_schema()
test_generator_dataset_size_0()
test_generator_dataset_size_1()
test_generator_dataset_size_2()
test_generator_dataset_size_3()
test_generator_dataset_size_4()
test_generator_dataset_size_5()
test_explicit_deepcopy()
test_func_generator_dataset_005()
test_func_generator_dataset_with_zip_source()
test_generator_mixed_operator()
test_generator_single_input_0()
test_generator_single_input_1()
test_generator_single_input_2()
test_generator_single_input_3()
test_generator_single_input_4()
test_generator_single_input_5()
test_generator_single_input_6()
test_generator_with_single_numpy()
test_generator_with_single_numpy_with_next()
test_generator_with_single_numpy_with_yield()
| 36.075955 | 119 | 0.640481 | 10,173 | 74,569 | 4.443035 | 0.040401 | 0.057811 | 0.01593 | 0.014337 | 0.865218 | 0.832784 | 0.803027 | 0.779774 | 0.761145 | 0.744552 | 0 | 0.037836 | 0.244337 | 74,569 | 2,066 | 120 | 36.093417 | 0.76429 | 0.087677 | 0 | 0.749489 | 0 | 0 | 0.096634 | 0 | 0 | 0 | 0 | 0 | 0.12934 | 1 | 0.113683 | false | 0.007488 | 0.006807 | 0.024506 | 0.174949 | 0.013615 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
03a39f3be1ca2eb12871addbc33f81b21b4283a5 | 184 | py | Python | utils/__init__.py | ahmednasserswe/COSMOS | 9d2483816bcd77c58888ec829e273cbb5dd80a16 | [
"MIT"
] | 21 | 2021-04-27T09:56:50.000Z | 2022-02-22T08:52:32.000Z | utils/__init__.py | PhucThanh/COSMOS | 587ec9d1b6dd563eda8e407c09f84b83c0c04d64 | [
"MIT"
] | 6 | 2021-05-07T02:36:30.000Z | 2022-03-24T11:20:36.000Z | utils/__init__.py | PhucThanh/COSMOS | 587ec9d1b6dd563eda8e407c09f84b83c0c04d64 | [
"MIT"
] | 8 | 2021-05-20T16:21:08.000Z | 2022-02-10T14:12:06.000Z | from .common_utils import *
from .config import *
from .dataset import *
from .dataset_utils import *
from .eval_utils import *
from .img_model_utils import *
from .text_utils import * | 26.285714 | 30 | 0.777174 | 27 | 184 | 5.074074 | 0.37037 | 0.437956 | 0.437956 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.146739 | 184 | 7 | 31 | 26.285714 | 0.872611 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
03b294b6c10a8e0bdbeb553905c1aec6cb3b7582 | 97 | py | Python | hydromet/models/__init__.py | amacd31/hydromet-toolkit | d39edc6d3e02adeb3cd89ca13fdb9660be3247b4 | [
"BSD-3-Clause"
] | 1 | 2017-01-06T03:35:29.000Z | 2017-01-06T03:35:29.000Z | hydromet/models/__init__.py | amacd31/hydromet-toolkit | d39edc6d3e02adeb3cd89ca13fdb9660be3247b4 | [
"BSD-3-Clause"
] | null | null | null | hydromet/models/__init__.py | amacd31/hydromet-toolkit | d39edc6d3e02adeb3cd89ca13fdb9660be3247b4 | [
"BSD-3-Clause"
] | null | null | null | from hydromet.models.gr4j_model import GR4J
from hydromet.models.hist_gr4j_model import HistGR4J
| 32.333333 | 52 | 0.876289 | 15 | 97 | 5.466667 | 0.533333 | 0.292683 | 0.439024 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.044944 | 0.082474 | 97 | 2 | 53 | 48.5 | 0.876404 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | null | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
03e50747714cc86ac9df87d553745c38a5e6fc5b | 5,071 | py | Python | data_loader/data_generator.py | JobQiu/PrototypicalNetwork | b46c34f8847946c4cd41774f4c8ee87c3486474c | [
"Apache-2.0"
] | null | null | null | data_loader/data_generator.py | JobQiu/PrototypicalNetwork | b46c34f8847946c4cd41774f4c8ee87c3486474c | [
"Apache-2.0"
] | null | null | null | data_loader/data_generator.py | JobQiu/PrototypicalNetwork | b46c34f8847946c4cd41774f4c8ee87c3486474c | [
"Apache-2.0"
] | null | null | null | import numpy as np
from configs.config import MiniImageNetConfig
class DataGenerator:
def __init__(self, config=MiniImageNetConfig()):
self.config = config
# load data here
self.input = np.ones((500, 784))
self.y = np.ones((500, 10))
def next_batch(self, batch_size):
idx = np.random.choice(500, batch_size)
yield self.input[idx], self.y[idx]
class CompressedImageNetDataGenerator:
def __init__(self, config):
self.config = config
self.train_images = np.concatenate([np.load('demo/mini-imagenet-train_{}.npy'.format(i)) for i in range(8)])
self.test_images = np.concatenate([np.load('demo/mini-imagenet-test_{}.npy'.format(i)) for i in range(2)])
self.val_images = np.concatenate([np.load('demo/mini-imagenet-val_{}.npy'.format(i)) for i in range(2)])
def next_batch(self):
config = self.config
total_num_class = len(self.train_images)
total_num_sample_per_class = self.train_images.shape[1]
episode_classes = np.random.permutation(total_num_class)[:config.num_class_per_episode]
support = np.zeros(shape=[config.num_class_per_episode, config.num_sample_per_class, config.image_height,
config.image_width, config.image_channel_size], dtype=np.float32)
# if config. image augmentation, use np. flip to get the flip image to feed todo
# np.flip(A, axis=3)
query = np.zeros(shape=[config.num_class_per_episode, config.num_query_per_class, config.image_height,
config.image_width, config.image_channel_size], dtype=np.float32)
for idx, epi_class in enumerate(episode_classes):
selected = np.random.permutation(total_num_sample_per_class)[
:config.num_sample_per_class + config.num_query_per_class]
support[idx] = self.train_images[epi_class, selected[:config.num_sample_per_class]]
query[idx] = self.train_images[epi_class, selected[config.num_sample_per_class:]]
labels = np.tile(np.arange(config.num_class_per_episode)[:, np.newaxis],
(1, config.num_query_per_class)).astype(np.uint8)
yield support, query, labels
def next_val_batch(self):
config = self.config
total_num_class = len(self.val_images)
total_num_sample_per_class = self.val_images.shape[1]
episode_classes = np.random.permutation(total_num_class)[:config.num_class_per_episode]
support = np.zeros(shape=[config.num_class_per_episode, config.num_sample_per_class, config.image_height,
config.image_width, config.image_channel_size], dtype=np.float32)
# todo if config. image augmentation, use np. flip to get the flip image to feed
# np.flip(A, axis=3)
query = np.zeros(shape=[config.num_class_per_episode, config.num_query_per_class, config.image_height,
config.image_width, config.image_channel_size], dtype=np.float32)
for idx, epi_class in enumerate(episode_classes):
selected = np.random.permutation(total_num_sample_per_class)[
:config.num_sample_per_class + config.num_query_per_class]
support[idx] = self.val_images[epi_class, selected[:config.num_sample_per_class]]
query[idx] = self.val_images[epi_class, selected[config.num_sample_per_class:]]
labels = np.tile(np.arange(config.num_class_per_episode)[:, np.newaxis],
(1, config.num_query_per_class)).astype(np.uint8)
yield support, query, labels
def next_test_batch(self):
config = self.config
total_num_class = len(self.test_images)
total_num_sample_per_class = self.test_images.shape[1]
episode_classes = np.random.permutation(total_num_class)[:config.num_class_per_episode]
support = np.zeros(shape=[config.num_class_per_episode, config.num_sample_per_class, config.image_height,
config.image_width, config.image_channel_size], dtype=np.float32)
# if config. image augmentation, use np. flip to get the flip image to feed todo
# np.flip(A, axis=3)
query = np.zeros(shape=[config.num_class_per_episode, config.num_query_per_class, config.image_height,
config.image_width, config.image_channel_size], dtype=np.float32)
for idx, epi_class in enumerate(episode_classes):
selected = np.random.permutation(total_num_sample_per_class)[
:config.num_sample_per_class + config.num_query_per_class]
support[idx] = self.test_images[epi_class, selected[:config.num_sample_per_class]]
query[idx] = self.test_images[epi_class, selected[config.num_sample_per_class:]]
labels = np.tile(np.arange(config.num_class_per_episode)[:, np.newaxis],
(1, config.num_query_per_class)).astype(np.uint8)
yield support, query, labels
| 51.222222 | 116 | 0.672648 | 689 | 5,071 | 4.648766 | 0.124819 | 0.092726 | 0.067437 | 0.095535 | 0.874805 | 0.874805 | 0.874805 | 0.838277 | 0.786138 | 0.786138 | 0 | 0.010438 | 0.225399 | 5,071 | 98 | 117 | 51.744898 | 0.80499 | 0.060738 | 0 | 0.567164 | 0 | 0 | 0.018927 | 0.018927 | 0 | 0 | 0 | 0.010204 | 0 | 1 | 0.089552 | false | 0 | 0.029851 | 0 | 0.149254 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
03fe9b141ae07623796cb5d8225249927e3ef98d | 2,429 | py | Python | angr_platforms/tricore/sbrn_instr.py | shahinsba/angr-platforms | 86f9ea90c396fb5561d0196a2d1a873e573b0294 | [
"BSD-2-Clause"
] | null | null | null | angr_platforms/tricore/sbrn_instr.py | shahinsba/angr-platforms | 86f9ea90c396fb5561d0196a2d1a873e573b0294 | [
"BSD-2-Clause"
] | null | null | null | angr_platforms/tricore/sbrn_instr.py | shahinsba/angr-platforms | 86f9ea90c396fb5561d0196a2d1a873e573b0294 | [
"BSD-2-Clause"
] | null | null | null | #!/usr/bin/env python3
""" sbrn_instr.py
Implementation of SBRN format instructions.
"""
from pyvex.lifting.util import Type, Instruction
from .logger import log_this
class SBRN_JZ_T_Inst(Instruction):
""" Jump if Zero Bit instruction.
op = 0x2E
User Status Flags: no change.
"""
name = 'SBRN_JZ.T'
op = "{0}{1}".format(bin(2)[2:].zfill(4), bin(0xe)[2:].zfill(4))
bin_format = op + 'b'*4 + 'a'*4
def parse(self, bitstrm):
data = Instruction.parse(self, bitstrm)
data = {"disp4": int(data['a'], 2),
"n": int(data['b'], 2)}
log_this(self.name, data, hex(self.addr))
return data
def get_n(self):
return self.data['n']
def get_disp4(self):
return self.constant(self.data['disp4'], Type.int_4).cast_to(Type.int_32)
def get_pc(self):
return self.get("pc", Type.int_32)
def get_d_15(self):
return self.get("d15", Type.int_32)
def fetch_operands(self):
return self.get_d_15(), self.get_pc(), self.get_disp4(), self.get_n()
def compute_result(self, *args):
d_15 = args[0]
pc = args[1]
disp4 = args[2]
n = args[3]
cond = d_15[n] == 0
dest = pc + (disp4 << 1)
self.jump(cond, dest)
class SBRN_JNZ_T_Inst(Instruction):
""" Jump if Not Equal to Zero Bit instruction.
op = 0xAE
User Status Flags: no change.
"""
name = 'SBRN_JNZ.T'
op = "{0}{1}".format(bin(0xa)[2:].zfill(4), bin(0xe)[2:].zfill(4))
bin_format = op + 'b'*4 + 'a'*4
def parse(self, bitstrm):
data = Instruction.parse(self, bitstrm)
data = {"disp4": int(data['a'], 2),
"n": int(data['b'], 2)}
log_this(self.name, data, hex(self.addr))
return data
def get_n(self):
return self.data['n']
def get_disp4(self):
return self.constant(self.data['disp4'], Type.int_4).cast_to(Type.int_32)
def get_pc(self):
return self.get("pc", Type.int_32)
def get_d_15(self):
return self.get("d15", Type.int_32)
def fetch_operands(self):
return self.get_d_15(), self.get_pc(), self.get_disp4(), self.get_n()
def compute_result(self, *args):
d_15 = args[0]
pc = args[1]
disp4 = args[2]
n = args[3]
cond = d_15[n] == 1
dest = pc + (disp4 << 1)
self.jump(cond, dest)
| 26.402174 | 81 | 0.561136 | 369 | 2,429 | 3.552846 | 0.211382 | 0.064073 | 0.106789 | 0.05492 | 0.831426 | 0.797864 | 0.776506 | 0.729214 | 0.686499 | 0.686499 | 0 | 0.048919 | 0.276245 | 2,429 | 91 | 82 | 26.692308 | 0.696815 | 0.095513 | 0 | 0.827586 | 0 | 0 | 0.034192 | 0 | 0 | 0 | 0.004215 | 0 | 0 | 1 | 0.241379 | false | 0 | 0.034483 | 0.172414 | 0.62069 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 8 |
20928e68f79e1a60c37302840b6bc6103809842b | 3,653 | py | Python | curation_projects/kannada_audio/__main__.py | sanskrit-coders/audio_curation | 363cfdab94cac0bc72096efa4649d0e075f55f51 | [
"MIT"
] | null | null | null | curation_projects/kannada_audio/__main__.py | sanskrit-coders/audio_curation | 363cfdab94cac0bc72096efa4649d0e075f55f51 | [
"MIT"
] | 1 | 2018-10-06T20:36:13.000Z | 2018-10-06T20:36:13.000Z | curation_projects/kannada_audio/__main__.py | sanskrit-coders/audio_curation | 363cfdab94cac0bc72096efa4649d0e075f55f51 | [
"MIT"
] | null | null | null |
from audio_curation.episode_data import google_sheets_data
from curation_projects import kannada_audio
kannada_audio.upload_volume(title ="havyaka hADugaLu ಹವ್ಯಕ ಹಾಡುಗಳು", archive_id="havyaka_hADugaLu", author="ಹವ್ಯಕರು", reader="ಸುಭದ್ರಾ", repo_paths=["/home/vvasuki/kannada-audio/" + "havyaka-hadu-by-subhadra"], dry_run=False)
# rangapriya svAmI\
# episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="habba", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="current filename", title_column="new title", script="en")
# kannada_audio.upload_volume(title ="ಭಾರತೀಯ-ಹಬ್ಬ-ಆಚರಣೆಗಳು bhAratIya habba AcharaNegaLu", archive_id="bhAratIya-habba-AcharaNegaLu-rangapriya-swamy", reader="ವಾಸುಕಿ-ನಾಗರತ್ನಾ vAsuki-nAgaratnA", author="ರಂಗಪ್ರಿಯ-ಸ್ವಾಮಿ rangapriya-svAmI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/" + "bhAratIya-habba-AcharaNegaLu-rangapriya-swamy"], dry_run=False)
# gorur
# episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="rasikaru", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="current filename", title_column="new title", script="en")
# kannada_audio.upload_volume(title ="ನಮ್ಮೂರ ರಸಿಕರು nammUra rasikaru", archive_id="nammuura-rasikaru", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ಗೊರೂರು ರಾಮಸ್ವಾಮಿ ಅಯ್ಯಂಗಾರ್ Gorur Ramaswami Iyengar", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/" + "nammuura-rasikaru"], dry_run=False)
# devuDu
# episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="m-darshana", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="original_filename", title_column="new title", script="en")
# kannada_audio.upload_volume(title ="ಮಹಾ-ದರ್ಶನ mahA-darshana", archive_id="mahA-darshana-devuDu-narasimha-shAstrI", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ದೇವುಡು ನರಸಿಂಹ-ಶಾಸ್ತ್ರೀ devuDu-narasimha-shAstrI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/devuDu/" + "mahA-darshana-devuDu-narasimha-shAstrI"], episode_data=episode_data, dry_run=False)
# episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="m-kShatriya", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="original_filename", title_column="new title", script="en")
# kannada_audio.upload_volume(title ="ಮಹಾ-ಕ್ಷತ್ರಿಯ mahA-kShatriya", archive_id="mahA-kShatriya-devuDu-narasimha-shAstrI", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ದೇವುಡು ನರಸಿಂಹ-ಶಾಸ್ತ್ರೀ devuDu-narasimha-shAstrI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/devuDu/" + "mahA-kShatriya-devuDu-narasimha-shAstrI"], dry_run=False)
# episode_data = google_sheets_data.EpisodeData(spreadhsheet_id="1MvZ9lGzxEpI23O4q938qvwagknF7m3eZZp6SuNxbECk", worksheet_name="m-darshana", google_key = '/home/vvasuki/sysconf/kunchikA/google/sanskritnlp/service_account_key.json', episode_id_column="original_filename", title_column="new title", script="en")
# kannada_audio.upload_volume(title ="ಮಹಾ-ಬ್ರಾಹ್ಮಣ mahA-brAhmaNa", archive_id="MahaBrahmana-by-DevuduAudio", reader="ಕಡಬ-ವಾಸುಕಿ kaDaba-vAsuki", author="ದೇವುಡು ನರಸಿಂಹ-ಶಾಸ್ತ್ರೀ devuDu-narasimha-shAstrI", episode_data=episode_data, repo_paths=["/home/vvasuki/kannada-audio/devuDu/" + "mahA-brAhmaNa-by-devuDu"], dry_run=False)
| 130.464286 | 374 | 0.794689 | 605 | 3,653 | 4.770248 | 0.2 | 0.068607 | 0.053361 | 0.049896 | 0.783784 | 0.719681 | 0.706514 | 0.691268 | 0.691268 | 0.691268 | 0 | 0.015859 | 0.050643 | 3,653 | 27 | 375 | 135.296296 | 0.790369 | 0.899808 | 0 | 0 | 0 | 0 | 0.32 | 0.148571 | 0.333333 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 0.666667 | 0 | 0.666667 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 0 | 0 | 0 | 7 |
20c6657ad676fdd9e37b8734c885cd3867d549b5 | 2,364 | py | Python | cities/migrations/0018_city_name_ar_city_name_std_ar_continent_name_ar_and_more.py | webmalc/django-cities | a05c38392135a5678c89d17533b4b0af56926ae8 | [
"MIT"
] | null | null | null | cities/migrations/0018_city_name_ar_city_name_std_ar_continent_name_ar_and_more.py | webmalc/django-cities | a05c38392135a5678c89d17533b4b0af56926ae8 | [
"MIT"
] | null | null | null | cities/migrations/0018_city_name_ar_city_name_std_ar_continent_name_ar_and_more.py | webmalc/django-cities | a05c38392135a5678c89d17533b4b0af56926ae8 | [
"MIT"
] | null | null | null | # Generated by Django 4.0.2 on 2022-03-21 06:11
from django.db import migrations, models
class Migration(migrations.Migration):
dependencies = [
('cities', '0017_remove_city_name_ar_remove_city_name_std_ar_and_more'),
]
operations = [
migrations.AddField(
model_name='city',
name='name_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'),
),
migrations.AddField(
model_name='city',
name='name_std_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'),
),
migrations.AddField(
model_name='continent',
name='name_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'),
),
migrations.AddField(
model_name='country',
name='name_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'),
),
migrations.AddField(
model_name='district',
name='name_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'),
),
migrations.AddField(
model_name='district',
name='name_std_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'),
),
migrations.AddField(
model_name='region',
name='name_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'),
),
migrations.AddField(
model_name='region',
name='name_std_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'),
),
migrations.AddField(
model_name='subregion',
name='name_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='ascii name'),
),
migrations.AddField(
model_name='subregion',
name='name_std_ar',
field=models.CharField(db_index=True, max_length=200, null=True, verbose_name='standard name'),
),
]
| 36.9375 | 107 | 0.598139 | 271 | 2,364 | 4.97786 | 0.177122 | 0.133432 | 0.170497 | 0.200148 | 0.858414 | 0.858414 | 0.858414 | 0.832469 | 0.81023 | 0.81023 | 0 | 0.028824 | 0.28088 | 2,364 | 63 | 108 | 37.52381 | 0.764706 | 0.019036 | 0 | 0.842105 | 1 | 0 | 0.142857 | 0.024601 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | false | 0 | 0.017544 | 0 | 0.070175 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 9 |
454b9fe6d15d33b5e17ed7b9856ab55f75064737 | 369 | py | Python | scripts/PubSearch.py | minervaclient/minervaclient | d5a249f2aac9191f3e7aa2d0a5917c34011ec41c | [
"BSD-2-Clause"
] | 4 | 2018-07-09T15:39:08.000Z | 2021-05-11T16:18:29.000Z | scripts/PubSearch.py | minervaclient/minervaclient | d5a249f2aac9191f3e7aa2d0a5917c34011ec41c | [
"BSD-2-Clause"
] | 2 | 2019-02-13T06:18:34.000Z | 2019-04-24T16:35:52.000Z | scripts/PubSearch.py | minervaclient/minervaclient | d5a249f2aac9191f3e7aa2d0a5917c34011ec41c | [
"BSD-2-Clause"
] | 2 | 2019-01-28T00:48:04.000Z | 2019-01-28T01:03:55.000Z | from __future__ import print_function
from __future__ import absolute_import
from __future__ import unicode_literals
from future import standard_library # TODO: why future import standard_library shows error on pylinter (py3)
standard_library.install_aliases()
from builtins import str
from builtins import input
from builtins import range
from builtins import object
| 33.545455 | 108 | 0.859079 | 51 | 369 | 5.843137 | 0.470588 | 0.201342 | 0.214765 | 0.181208 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.003086 | 0.121951 | 369 | 10 | 109 | 36.9 | 0.916667 | 0.189702 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.1 | 0 | 1 | 0 | true | 0 | 0.888889 | 0 | 0.888889 | 0.111111 | 0 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
45a1928d4addee161c2e0a67fbc84feb5d1543d3 | 114,760 | py | Python | src/4-draw_results.py | eric2323223/CASIA-HWDB1.1-cnn | 6cca94428c9c2409438d1ee06ba090c2da9e00f0 | [
"MIT"
] | null | null | null | src/4-draw_results.py | eric2323223/CASIA-HWDB1.1-cnn | 6cca94428c9c2409438d1ee06ba090c2da9e00f0 | [
"MIT"
] | null | null | null | src/4-draw_results.py | eric2323223/CASIA-HWDB1.1-cnn | 6cca94428c9c2409438d1ee06ba090c2da9e00f0 | [
"MIT"
] | null | null | null | #!/usr/bin/env python2
import base64
import cStringIO
import json
import random
import sys
import h5py
from keras.models import model_from_json
import numpy as np
import PIL.Image
import utils
def create_cell(i, bitmap, tagcode, correct):
cell = ' <div class="cell" style="animation-name: appear; animation-delay: %.1fs; animation-duration: 0.7s; \
animation-fill-mode: both; animation-iteration-count: 1;">\n' % (4.0+0.2*(i//4))
# save bitmap as data uri
im = PIL.Image.fromarray(np.squeeze(x, axis=0))
buffer = cStringIO.StringIO()
im.save(buffer, format='png')
cell += ' <img alt="" src="data:image/png;base64,%s" />\n' % base64.b64encode(buffer.getvalue())
cell += ' <span style="animation-name: %s; animation-delay: %.1fs; animation-duration: 2s; \
animation-fill-mode: both; animation-iteration-count: 1;">%s</span>\n' % ('togreen' if correct else 'tored', random.uniform(6.0, 18.0), utils.tagcode_to_unicode(tagcode).encode('utf-8'))
cell += ' </div>\n'
return cell
if len(sys.argv) != 4:
print 'Usage: %s subset_filepath model_filepath weights_filepath' % sys.argv[0]
sys.exit(1)
subset_filepath = sys.argv[1]
model_filepath = sys.argv[2]
weights_filepath = sys.argv[3]
# load the model
with open(model_filepath) as f:
d = json.load(f)
model = model_from_json(json.dumps(d))
model.load_weights(weights_filepath)
model.compile(loss='categorical_crossentropy', optimizer='adadelta', metrics=['accuracy'])
# test the model and output results
with h5py.File(subset_filepath, 'r') as f1, open('results.html', 'w') as f2:
print 'Evaluating the network on the test set...'
score = model.evaluate(f1['tst/x'], f1['tst/y'], verbose=0)
print 'Test score:', score[0]
print 'Test accuracy:', score[1]
print 'Extracting some results...'
f2.write('''\
<!DOCTYPE html>
<html lang="en">
<head>
<meta charset="utf-8">
<title>results</title>
<style>
body {
background: #D4C8B8;
background-image: url(data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAeoAAAKNCAYAAADvdChFAADp90lEQVR42uydBZgcRfrGK3A4/AMcnmyIIAkOQQ8OgkuwBGaneyEhye705IBAZA0/3N39kMPd5XB3CRok2OHufv96p6uzvb0t1SM7PT3v73nqyWamp7unuqff+qo+EYIQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEEEIIIYQQQgghhBBCCCGEpIcRsi3KbiCEEEKSyQWybcBuIIQQQpLHWNn+J9vx7ApCCCEkWayiRBrtDnYHIYQQkiwucwn1V7LNwS4hhBBSTyyScPF7zyXUaH9P8LmuL9t8vKUIIYSUk51Fsr2pX/AI9R4JPMdlZLtOtqxsf+EtRQghpJw8LNvEBJ/f5R6hPiSBVjTO6zzeSoQQQirBg7J9J9s8CT2/3T1CfWWCzm2COqcneRsRQgipFHsrsXkwoee3qUeoP0zIeR2jzud73kKEEEIqycouEdwngee3pGy/ecR6aJXP6VzXuWzIW4gQQkil+cYlPJMTeH7TPUK9W5XOo49sd7nO4xjeOoQQQnqDMzxCOClh53e+5/zOqsI5DJPtVdc5/Ie3DSGEkN5iMY8QonUk6Pwsz7k928vH39Az64C2OG8bQgghvclRPmJ9UkLObQXPef0q20K9dOxWn37hujQhhJBeZ3YfQUK7LSHn95HnvDbuhWNe5tMf+/JWIYQQUi2ODBDr52Rbp8rndqXnnFoqeKzVZHuMIk0IISSJvB0g1n8IO0VmtZjiOZ+pFTrORqJnOBjaobw1CCGEJIG1A4TaaffLNrwK5zXKcx6dFTjGmQHfeTRvC0IIIUni2gixRjtC9K7n88ae4x9Qxn3/n+g5te60cbwdCCGEJJHpGmL9k2wnyzZ/L5zPcM+xjyzTftcSPR3V0H4Utrc5IYQQkkiGyPaLhlij/Ve2bSt8Pst6jnlGGfbZHPB9Zgg7tSohhBCSaFaS7VtNsUb7VwXPZRFlwTvHur7E/V0Y8B1miuRWEiOEEEJ6gOnft2KI9VEx9o3c2VjnXlNj278Iu3KWc5xHivw+A0T3fN3u9pRsC/OSE0IIqTUgkrfEEOs4Vbiwvn2IsPN5R/GC6xivFPE91vVY5e72nho4EEIIITXLyZpCjbXt+WLu+xoRPXV+ZwnCuovwj49Ge0e2fry8hBBC0sCOmmJ9XRH7xuceCHnfva78hejyNo+aru6MONcBvKyEEELSBGKaf9IQ6y1j7neICI+RPtS175+FXfXLGTwMCvjMERHnaPByEkIISSObagj1Cz6f21XYoVZBtKjPburz3kTP/geq162AQcG4iPM7k5eREEJILTC3bNvJdopstwt7+hn/XiDb/sJO39nf53N5DbFey/MZFLa4POJ8kGzkN5/Xt/fsexn1+oHKqnYzMuK83hS9k6iFEEIIKRk4ZWGdFklL9hO2Y9fLPuL2pWzHyjbM9dmnIgTxWZ/jPS/bKhpWtTfUa03hv7Z8iY9QRw0gluRlJ4QQkgYghk2ynSS6x1Nfp4R9Rdm+ihDFEZ59QtzPiTjue+qzq3rO5U/RleJzLvX6q7INdW13UMT5NPKyEkIISSsbyva06F6c4xaXgPq1azz7uCfA0nYzRn32HtdrcyurHq9/rl7Lqv879I0Q6f15CQkhhNQDEMgfRJcHdphQv+n5LNa/Z0Tsfx7X5xtcr7+mXntb/f8d2V53vX9YyHnsy8tGCCGkNyhnBq3Zhe2FjTrU2wh7OnsDERzu5GaAEmmduGr3/u5WghuFs/7tzlr2kOiKt95S/b2f6/2nfY6NfOWsKU0IIaTXmFe2scJOAHKcbJOEve66pRLclZT4Li3bYGHn60b6TEN0eV1jShmlLL+MENh3hb3mu0DAuaylKdS7uD7zjGwPa3xPt1e5U/v6BtE19f2r+ntp9d7inmMizShCuug4RgghpNeB89TRQj//dlT7RtjTyc8Je2r6BmX5QlRRxhLOXwNlm9PnXP6hsf9pru0xOLhS4zsu4vr8weq1f3n2+4Rr+zeV9YxtNuItQgghJCkgOcj9GmL5h7KiL1GW9U7C9tpGhq+o0o6Y5u6vrHk/3o449hZqu/lcwotZgLkjjvuw2v5x9f9TPftdV71+s7BLX87H24EQQkhSQSgTsnQdI9sZsp0u7LSbzcJO+7lEBY+9WYRQO45cTiz0DrLdpAYLYRwlugp9gCmufb4v26JqZoGOYoQQQkgEl3nE2fEE31PY4VZTRVeBDIR5oRrWmxH7nODaX0YJvPN/1Kd+VNge6IQQQgiJYIBHqOER7s7B7Y63HiHs6e+oLGGjRPfc4cd7jjGe3U4IIYTo84ZHSN1pQLdyvb6xspD/p8Q4iBGe/X0nusdsr80uJ4QQQvTZTvRcn15Tvbei6zU4wO2u/g6buh4qwte+d2KXE0IIIfG4xSOm16rXDddrCJ86y/V3GG+GCLUz9T0Xu50QQgjRo5/oXqjDiZke53rtatlmyva7bAuG7AsC/HGIUO/tsrxzorxZ2wghhJDUgixhqG+NULFF1GuoH/2TR2jPjdhPVNhXu9oOqVCRP3w7dj0hhBBSPPDwfl50xUH3j9geQn+BCC6l2ebaFqFaR7CLCSGEpJnZRHSWslI5WYmsGbHdUrK9rP6+NUCop7i2f0o1QgghJLUgBSeKeiB8Cs5fHbKdJuy0o1hXvlS282Q7SdihV6jvjDze8NxeS1nMUevEByiRPTtiO1jHH6q/twoQ6kmu7fdQrw3nZSSEEJJ2/k+2IcJeI4bDFjy0UVryc6FX5APrxSjucZFsBwo7w9h6at9j1TaofjVHyDl86rGQb/Q5zp6ezxwi2/a8fIQQQuqdxZQFvbOwy1HCskbBDBTP+DFEwN+T7XXX/7cK2P8c6v1LPK+fLYKrchFCCCFEk+WFXYMawvpyiHCj6tZyPp9fSr1/nef10Z7PH86uJoQQQkpndWGvIT/hI9YI2Zos7FzhDhuo95717Gcvz2cvZtcSQggh5eWQAOsaYVtOSlCnata3orsX+lTPZ+5mdxJCCCHl518+Qo0QLGQrQ7KUYa7X13J9rtPzmQfZlYQQQkj5MV1i+6JsNwjb0/xo2b4Q9rq18/7Wrs8d4BHqO9iVhBBCSPn5q2y/KbEd7Xp9TvXaW8JODwoBX8r1vnfa/Fp2JSGEEFIZnCpb23peP1C9fpnPZ47yCPXl7EZCCCGkPKBwBtafN5FtH9m+UWILwUYo199d1vMVoitxyoqufZzkEepL2a2EEEJIeUBqUSQyWUjYNaiRJOUxj/BiOvwu2a4SdglM5/WJah/tnu0vY7cSQgghlQXJUc4T0WlJj5XtSM9r17H7CCGEkN5hN9leE3q5xJ12L7uNEEII6V0s2Z4TdsYyrGXvHSLUb6rPzCXbvAH7m11Z7UuzawkhhJDysbDrbziUjZTtDI9Qfy/b3LKtIOwY67vVNkhJepCwk6j8IWzHta3YpYQQQkhl2c/HqoY1DUe1vsKu5PWRj5ivxa4jhBBCKg9irr90ifBBPtu4K2wdqyzuWqEPLzEhhJBaB6lGN5dtbZ/3nOpan8q2fo19r/kp1IQQQmqZSaJnFjM4ig2XrVXYBT0g0o/KtkSNfbeVRffELoQQQkhNsIawY6x/UiL8hmznyjZdtu9E97Xoz0RXmcxaYrBsByuLmhBCCKkJFpTtYtneke0T2V6W7RphZy17WrYHZPu3srLhKPaXGv6u+8q2HS85IYSQWgKhWXAKW1TT6h5ao99zSdkO4+UmhBCSRo6T7UfRNfX9iKi9tembhL2+TgghhKSG2WS7UfhnKruhhr7HBuqc5+UlJYQQkiZWEOH5v/vVyPd4VrbTeTkJIYSkjdUihHpCDXyHzdS5zsfLSQghJG2gnvXPIUJ9ew18h9+URU1IpQaCa7IbCCHVJKwc5icJP3cnxemuvIykzCwr287CnlUaxO4ghFSTq0KEGtWyFk3wuX+qzpGQcoHMdrvLtqVsQ9gdhJAkcJwIX6feMKHn3aHO7zReQlIG1pNtf9mOEHYqXUIISQytEUI9OYHnvLjr/AbzEpISWE62h2SbIeylFEIISRybRAj1GQk85yPUub3Ey0eKBOlyr1H30Z3CTrVLCCGJBLm9vw0R6rsSdr6Lus7tXF4+EoN5ZJso21uue4i54QkhNcFtIUL9esLO9QbXue3GS0c0WF3Y688fuu4dlHBdiF1DCKkV9g4RasQp903IeS7lOa+5eelIAKivPlbYMfbee3oiu4cQUmsMFeHr1Osk5DyvdJ3TTbxsxAckKIEPw/s+9/FM2XZkFxFCapV3QoR6jwSc39qecxrHS0ZcGLLdF3IPPy7oMEYIqXHCHnJXJ+D8XnGdz++i9spwkvKztGxtsj0hwmeETmRXEULSwHkhD7p3q3xuK3vO5wlerroGg7Qz1IDtfxGN6WUJIalhbMjD7ldRXQ/Zez3ncwkvV12C2OdTZPtRQ6A/l20HdhkhJE0MiHjwVcsJZxufczmQl6uuWES2czTE2WkfCi6NEEJSyhshD78rq3RO033OZYM6uBYIRat35yd8/5Nk+yaGSN+j+o4QQmqC2US8WONLQx6A3ws7NrU3WdbnPH6ownlUgxGyzVfH9y4yhn0WQ6DRXuBPnhBSayA9KByxzlL/RrFnxINwy14+/0d8zuHOOrhuq4j6dYJCkYybYwo02vmyzcWfPCGkVq3qo9XDbB/Z5gjZdu2Ih+FxvXjeGwecQz2sT0N0OuvwXsXgRMdRzNuu58+cEJIGxquH2geyZQK2gUXyVcgD8bpePN/HRLKzpFWKFWX7SdTXOitKld5RhEA7g09CCEkN57oecAcHbPNcyEPxvl46z4VFctbJe5sLZXuvju7J7WX7pUiRPo0/aUJIGrnd9aB7UPR0WLor5MH4ci+d40UBx3++Dq4PRGuPOvieS6n7739FNos/ZUJIWlnc88B7UrZ5Xe+fH/Jw/MazbaUe4EHHPzXl12Yf9T3TPmuQle3rEkS6jT9jQkja2cjz4MNU6wLqvb0iHpLLV/jcDgk59ro10LeofTxPEZ+bU33Hh1N83/WT7ZYSBBptC/58CSH1guVjWcOSWzLiQbl5hc9resBxP64RS3G8Et24TFDfc6+U3m/IbPdVCQL9WS/ce4QQkji81rOzBvx8yAMzV8Hz2SDkuOckvC+xrnxZCZ//QH3PRVN2jyGW/5oSregZyhonhJC65GzPQ/Fy2W4LeWgeXsFzuTHkuJkE9yGSyfwk9JLK+DFGfcf7U3ZvbSbC09LqNNyL8/BnSgipd+J4315RoXMIcyL7U9hOcEkFZUCLjeftI+zqZNXI/FZJTipRoNGO5U+TEEJskA/8W82H55MVOoepIcf8SAlaEjlWCW2xmKJrDb5PCu6lYSI8xE+3HcCfJSGEdGdTzQcoQrTmqMDxrwo55vSE9pkzCzC5hH18rvZxXgruoV3KINAY9KzLnyMhhPhzgObDdMUKWPSfhxxvZkL76xVhO4EVywmu77hLDd83uH5nl0GkkfluVf4MCSEknPc1HqiNZT7mjhpWVt+E9dNdJQ5aFnB9Pzii/SXh90VQoptlZHupDCJ9BX96hBCix1YaD9UjynzMqzWOOSJBfbSHOqdnStjHWa7vdkaC74e/yvZ32Rb0eQ+e+MVUu/K2yfzZEUJIPK6MeLBeXsZjzSW6vJ7DWkdC+mak65yGFbmP4Z7vtkJC74MNZdtXtmV93ju+DAL9vjoGIYSQmCCz1nchD9j/lLj/uV1/m5oP9asS0C+ru87nnyXsZ4ZI/vr7mZ6ZEyd1LKbAbyiDSCOBzXz8qRFCSPG0ifBwqWJBmtIPRVeqzBM1H+wvVbk/UDP5G3UuP5awn+093+vKhF13WPcIwUM2sfWEnYkOMdFw8kL50RfLINK78edFCCHlYWbIw/bWIvf5F9GVu1nEsM4gjvNXqR8aRPc81cWWWEQe9Z8830snyQnC4YZW4HvNrQYgmH5GrvF/u84LHu0oiYolB4ShrSnb2yUK9Lmi8kVdCCGkrjg/4sFbbG7rd9Xn/ya6TwNHtWo85BdVMwBuASsWbyKQL2Nch51jHguZ3OCRvomwU5TuLex1ZdT6xtIFaot/IoJza7tLSS5dokB/RiuaEEIqw64aD+Fri9jvWS6h+j3GA3/TXv7+f3ENKpy2XJH72tjn+5yo8TkI69E+r/dX1vhUZaleL+w45BeU5fuzKC6OeZTnONsJO4VrMQKNWZB2YXuOE0IIqQBDNR/I58fc71Yi3gPfEYp8L3//h4R/dbG4IGb6GxE/ccz+sp3qsmqbhO2E9axsf4jS14qd9lyAxfu3EvZ5rTpnQgghFQQC84vmg/m6mPv+VHO/cGpywrdOLcN3wjr3khrb3exzLtsWecxHffb1TsRnnKIWWF54q4yi7G53hsxSrFXkPlEBbZUYfYNrsQatbkIIKZ44ZQoPibHfk0P284OwyxuuooTVef2eMnyftTQEd39RPq/zoPzXpwdsD9E6o0LC7DTMFERll3sz5j6x5j22iP6B3wGmyL9TA7GF+JMjhJB4RDmUFTsNvq3nc98qCw9TsIu4tkM41xdqmzfK8H02F3bSkiD2DPhemxdxrPVC+mkRz7bwB5heYYGGx/lmGud9TYx9Yjlg5xKvyX2u/W3NnxwhhMRjfBGCsLfGfhdW2z6sLOcwS+peUb7KXXuHiFXQmjwcs4opQfl6wP7cU/jIbnZ3hQX6f8piXVvjnNfX3B88w1uLvAZw0hsk7Gl3dyrVW0RwTnFCCCEBFBuao5MP/GkRvVYLDnftd+USvgsyriE0qb/PexgoBOWt3quIY10e0jcOJ1fYev6fazC0hOZ5nxKx33uE3lo9BlSIvZ6kBia3qOv9ihL5p5U1jnzph6jZB0IIIUUSJ9bZ3Voi9ovp3i80ju/Or72H5z2IbkOM2YFvA967K+A7vFdEf03UGMCcWyGBvkENAL5W/7+6DDMoWH+Gt/mIkNkRWOLIYoYqWO97ZiM+FnbYGDzBkTt8oxgDB0IIIRr4rVPrxtbmQvY7l7KqBkUcfznX/q73WMgHC32PYThIve7z+sUh579dzL5aLGRfzrFvLVKEfw3pdzinOdPzN4rSypHCoe06dbxxnvdQbhRLBwcKey0b1vp3rvOD5XyeGlCtzJ8OIYT0DuN8hAFxvPDM/lKUVqISHshRWav6iq4EHl8ogQZI5Xmz5neYV31+X8/ru4WcN6zv2QL2B2/0//O8NrsaeATtD6k4V9IU5VeUNXyqspIR6/yR6/1fRPeqY9gWHu0bCDuJDBKNoOhFq/r8rWrANUXYSU0gxvANWFNZw0jIsrWavYBV/Zna75HK+r9J2ClF4S/wmLDzgXvDxuAM9zf+XAghpPdZIUBMzhb+Gbf82iYB+4ZFFpWKdEGPKDmlEREydZzmd3CcpAa4Xls94pxHB+wL8eWT1L9u9hV61b8eUa99ql6/UAniDrINdG2H0KX9ZHvVtR/kHIcDVj8R7KH+P4+oF1uC8mYl8Gcowd9GDTbcnOPz2WdCrrczyEGOcfg/zM2fFyGElA7WIH8LeKA3KDGJevD/5hFJ94M+Kue116LPiK4p5tU0v8MxSuwdsLYdVsrz4ZB9HSl6hhEtLYLTdk53WfWOY9w7agDiBf2J3NwPevZxhxLLvj59AyE9VthT0bB471IWbzGpP58qQjxznsGEe3AyWg0qYGkjZeoTnlkYDFbuF/baPZzUGEdNCCFF8m7Ag/1R9f59GiLwuRJ9NyNEdA7tdzz7uUDYU8G/xDj/L0TXNPmcId/HacMC9gNR9CvMEZYYxuFNl+g6YH3dULMK33o+94kaBPXX+H7b+mx3YRFCjXV0TI8XUyt6VzVAKMWSx4wBvMAX4U+OEELiEZYEYxm1jU4ZxOme/c6uXt8/4Lij1PsQua89+7pJ89wXFd1za0fVVD40YD87qvdX8hGooBCpIcIOPXL6BqVD4RXepgY33rKXyMp2qjrWbJrf71LZ/it65taeRxSffhRr1IcVaeFirbxZtn3UdS2mPCas7qM1BymEEEKUsEQlOOkn9JzLbvPsG5ZjUMGL59RnTGGH+Lj306Z57pOFPS0Nzoo4t0cC9jFAve+X5OM9Ebwuv4KPAPltO1Pte+EY16Sv6KqT7Vereznhn2c8TsNa99gS751xJRwfswy78+dHCCHRbBLyMJ3s2g5W3ccaD+CTXZ85Ub02X4AljLVlhB7d6LH4FtA89weEvYZ6qIguyxhUsANT535T7ZMC9gMv7JNEdHYvrJ2PLOJ6OPnIb1WzEg6IUcY6+EOivPHZd6iZg2KAZf9wicfHNczwZ0gIIcEgFCnIoWxPz7aIi/6vxsPXifPdQP1/e89+ThVd095gisfS0wWC+L3G+awZ8Plr1fteQZ1d+Gczg9X8uoZIY206ruMWQqqcqXvL9TpKgD4hotOIlirYWOdftYj7ZzY1c1Lq8VGfm9PhhBASwHMBD89xPttiWvZZjQevs77trSiFzFWO1/LF6rWs57NB9akXEV1JVDDA+EHjPIKs2lNcAuVlvRIE50fRVUIUAvaasKepb1aW+EQ1gMH3QDrOzdWAAbMLNygrtZ96LUoAkVkMtawxrb6GsuJLLZ15ZcjAJgh4tD9dBrH+RQ3iWBqTEEI8/CvCMvYCa/GBiIfus2pbOBy516ndebCdYhIv+lh3fsDiczKK7RFxfCQHGRFivTrbreDz/kGi8sU0/ucR4g9l28I12xAlaEeFXE/EwCOzG0LBviny3A4qYlbgyTL1y5cBg0RCCKlbpsa0Rh3OFNF1rLGm6877/Z1LmIBfDuqfhL/z1bbKggSfhhwXCVNWDDjnxUWXl3lQvu+gdeB/q/2OVLMBr/pY9b8qAYa1i/VbeG6foPoYCV06hJ39zR2SFrXm7Y1hjuOx3VcNcDAIwLo7ioq8q3ksLHPsE/Ne2k+UbyDzphowMKSLEFL3mAEPym00Pru3iK729I6PKDtFOILWx/1CqSAaE0T41DRKS86mOXsw1ef9gaLnujf+v2fA/jCggOf4EPXv4hGW6Msuix9OXMhSdksM8cLUNhKf3Kms712EvvOdAxz41hF2OlKEwn0QcUx45a8VY/+7CT3fgTge4p0inuc8IYSkiq1FvKlvL0jjGZYLGxYqMlj9IronC1lDhE/vLuQjsrDQbwj4zISI81zBM4CYy2N5niS6pzR9V+1zzjL08RpKEH9y9evmmkL1T2UVQyx3EvYaPrKG7SzsdKmlnh/qSC+nLH5kT0P61vt8Zi2eVN9Dh8XVDEQ5lwq+UTMKI/iTJYTUG+sEPBitGPuAFYtp3D8DrMCZrv/foj7j9qCG+F7n+Zx32tXZvzeZCIpKrBJxfvN6jue2kLHu7XXc+kCJYrHAal1a7Rvxwo4XOcLPMur1KGF6UAlxtZhH3RsTlUD+qGZHJqvv1kdjH5hF+VCUf30fiXr+zp8uIaReQIzx7z4Pw9Yi9oUp4EsiHrJgtOc1lE5c1vPa2559/0d0z4SGkowrRViKDhu4LOmTXO/fGXCOmLpFalRMzcO5CWFXt6nvBovzYGXpIrYZa9DnqQHIc6LLgQvChqnlqGQsfrHFayX0XumnBjDDRfc47zBg8XeIyjjkYVp+G/6ECSFpB5aRX3z0fiXsE05XnUqoHE9eWGNbqvfdFvYfroe+11reQb2OQhfu4hjzRxwfOb0bPGKBAcmi6v8ICdNJ4FKMxzKSiBwguoc5hX0GswTwfMd08/Ypvs+GqAHNNxXod0yzD+RPmRCSZh4T/mujpTK32pc7XeRw0XNq3CHjec/xGN/B9dpJEcccIewMX0EWX7MoLkc2HNWQbW0vJahrKQuzr4Z1+UCEUOfr6F5bUM3WzCyzWGPAdyh/yoSQtHKdz4PvsDLst6/o6WF9t+i5xuzGm4kLlukxrv8vHXI8WFVIvhFWJnNdYTtnraD2izAqeGOjUhbWsREDjrKS8Koer44/T4n9oBO2NLUO77sx6n74qoyCjZC4xfiTJoSkjTN8HnhHlWnf2Ncl6m8/T++jPduvJnoWkHCmSy8MOQ7Cd+C45Eyvz56g/m3QFJlz6vT+w1IGHOyQGe3zMog14ts358+aEJImDvB52J1apn3Dqepj9fcFwj8Llhe/0B4kwAjyNF5QbXOW+j9irZdIWB93aorMFXV+L0K0kdjmdGVtf12CYP+TP21CSFpo8XnIXV+mfTu5xBFb65cT+tiAz33m2e7AgO0wzQnv7CfV/zETAG/s2RLYz/doCsxtvCVngeWTrJpNea8IsX5IdHcsJISQmsQvrnd6mfbthFWdK/wrPe0b8LkJnu2afLaBd7njDQ7a1Hn3TWg/zye6h5mFtVt5W/YAg6+/q8HYTTGEG1b5juw+Qkgts5bwT//5f2XYd1AmsfdlOyJCVN1ORsM9720vusdmO+Uy/1ID/f2IpsDczlszFCyFbCXssC+dte1z2WWEkFoFntR+WcVWKMO+rxddySmw7o3iEBuJ6KlpJEFxpx1d3/Vem+t1xEyPUn9vUCP9DS/ya4V+Fi4SzfzqPsDg79WQ/nxK2GlzCSGkpkCKTT+nnWLTNLqdvp5SghuXqz3n4tQpdjuawXlsF/X3qBrs98c0xfoi3qKxcbzIg/p0X3YRIaTWeNPnYbZxkfuaw2Uxv6MEKQ7ri+7ZvjCtvahHvBGK5cR/H1ejfY4+Ok9TrE/mLVoUKDiCJDfwpvemyoW/wN/YRYSQWuFRH3FYr4T9weEHzlPTlRUcB7fH92j1mjeTlTMD8O8U9P11mmJNK7A0UIoUWete9vTr/uwaQkgt4Of0tUiR+5pdfR6lGBFqdFKMz7a6jg+vXnh/PxsgXI+nqP8P0RTrCbxVy8Kmwq7J7WTCQ6z/LuwWQkiS8U7B3lviQxD7QNWku0TPkpVBYGDgdmrDdPwPAYKF84NXep8UXYMjNMV6B96uZQUpZc8UdpU05HNvEMnKbEcIIQUO94jB6BL2daTaB8pIIsnJdpqfe0FTqFBpCl6+8B6fM2XXIavZB5vwlq0ISD2KkqtzsSsIIUljsvCvaFUMV6j9wHnnHaFXJGFkiCi5E6U8p7bfTn0mjYwS/jXC3Q2pWZfnbUsIIfWDO41oqbG7L7r29armZ14XPdNomrKNFbaH9/+Ude4wLeXXA97K70aINcLeluatSwgh9cEY0T0kauES9uX22r5TY/smHxFyrHAnbhrZvJz1aDj9ZOrgmiwg7DKcYWL9irDD4QghhKScnTwCUEps8vFCP/4X4uvN2Xyles9JCHK5a/t5lPgPrKNrc1CEWL/E25cQQtLPNp6H/8eiNI9q1IWGc1hQjWXHCWyI6LkejbSgx6r/n+b5HIS/HktBYgbh/RCxvpC3MCGEpJtNfR7+K5a4z0tDBGSMGgis6Tkm1qGfUX+P9/ncy0rc6xEUHLkkRKwv421MCCHpZX2fB//oEveJbGdHB7yHcLClZOsfIDq7+nymtU6taS97yvZrQL8Z7B5CCEkna/o89PcucZ9wSpsa8N4toiu8yl3OEpmi/BzZ5lLvb8pLVWBZ18yDt7E6FCGEpJAVfR74h5ewv8XVPrYJeB/1g5vV3/9Q254Xsj9nypd05yqf64aBz9zsGkIISRdL+zzwzylhf41qH/193hum3ltJtr6ynSDsEK0gFlLbTynD94TX+GDZNpRte2FPFbsbMoPtpN7bStgVxNYRdm3uJYSdES1pTPC5di/wliaEkHSBMpI/eh72N5ewv3NDLOCj1XuryzZctjUi9gXR+Un9vYgSeh2P9GFKeNtkO0PYa+afCb0UnX7tN2WtIhzqHrVPFHbYTdi1u6sp4kgO86HnfC/gbU0IIekBIvOl50H/bAn7+1TYIV5+OIIyVENwHVFHJa6VhT09vlrI9sj/jRjw6SUIcrENIn63sCthbays995kQWF7zbOAByGEpJA5lLC6H/JYR56ryH0FhQst7BK1KEa5zuUm2Q5WVrIb5LtGmlHEW79ZBXGOanCOQ5lPeGqv1UtWNxz43nadA9OMEkJISnjPR2gGFLGfddRn/cpbnqreuyViH2t4zuMAz/twUrs2YaKMafWH1AAFg4r9hJ2TfKIaTCAJDNbHe6OE4myqz5yUsIQQQlLADFGepCf7C/+EJQNc+x0fIdJfuLYd43oPwndfFcX4DdlulO0w2fYSthPclqqfdGcferOG9iqyPSjs5DMs3UgIITWOXz3otYvYz3Pqs94ylBe59rtAwGf/KuyqUM52D6vXEcoVVU2qEg1r3XAag0f4cjV8bfcV9tQ7IYSQGuZxH6GKm2BkowBrHI5VTjatoDKa8wq7GpT7+M8HnFelGpKI/FPYzmvDUnZ9VxGlp4UlhBBSRe73Ea5tY+7jKfW5n4Xthezgrqi1XcRne7vBau8UdravNIOY9QG8zQkhpHa5w0fExsf4/HDX595xvb6CZ5+LeD4HT+hbfY59pGybCds5q1yi/JMakByqrObledkJIYTUCtf7CNs/Y3y+1fW5/wrb8xi401ze4/lMg/Bfe/7Ms90gYecev03t+6cIQf5Z7QPr7qhnDQ90ZBpblJeZkNpmxIgRf2EvkHrlUh/BuyjG5/fzfBb09by2nmt7WOu/BAjt8JDjYACwmBJvrLkiAQqynK0q7CQqA4Wda5z5rglJIa1jtpivM5elcySpS87xEcwHY3ze8nwW1utJrv/PcG27W4BAI5Z7fV4KQkgYnZZxcluL8Xf2BKk3TvQRTsQzhyXoQM3qzdTfq7k+h7zh53n25fyoLnC9hrAhhIAhIQgKZczJy0AIiaLDMs/psLJ3sCdIvXF4gJU7NOQzSN15oOv/T4iu9KPPu/bxiXr/MNdrR7PLCSFFWdR5Y2JnLvs5e4LUG/sGCPVuIZ9BDu7zXf9fUP3/Ytk+cu3jLtlud/3/ZHY3IaRY2nKZ1faZ2PS/VstYh71B6onJAUIdVi7xSWGHdXnZ37OP311/H8euJoSUwjTLXARCLS3rq9gbpJ7IBQj1ByGfQcWqR31ebxD+1az+yW4mhJTKuHEj5oZQo7E3SD2xiwiOSx4c8JlPlVXtx1jPPvZlFxNCykVn3vykYFXnGjdjb5B6YccQoQ7K+Y0p7ad9Xl9Ztrdcnz+U3UsIKbNQz4BQd+SbTmNvkHphixChPshn+z7qPa9Qby66JzK5iF1LCKmAUL9eEGqGaZE64u8hQv28z/bzqPeec722gwhPBUoIIWWhI2++qSzqt9kbpF4YLsLzZ/fzbL+Yev1W9f+9RE9P79XYrYSQigi1Zb7jOJRNzWWXY4+QemDFCKH2xlMPVq8jPGJ/n+2PZZcSQiqBZQ2foz2f/dAR6va80cxeIfXAkAih9q41rxqy7VeyLcQuJYRUxprO9G3Pmd84Qo2UouwVUg/0l+2PEPGd6dl+h5Bt92Z3EkIqRXvL6P6defMPl1C/wF4h9QDWnH8U+uvUh4ouhzF3MQ7k9Wa9WFJ1UA6x3TIn757JzM/eSJlFnTNXdETazlBm/rbH2FF/Zc+QtIM83d9ECLW7Buxd6rXthR2StZWyuq9nV5IkgAe3fIDf0jYuswR7I12gxKVbqNU69aZp+X6Tx+2I53EfXmniZR6PdezXNlfb4gZyYqXdNxP+vx27kiSBKWMz/Try5nP4l72RLqQo7+wj1DXvUIbUqG1Wdo0pzZmFKdTED9Sd/m+EUO+ktl1e/f8U1+fvUK8RkggwPSot6l86JxoD2RvpQl7X3b1C3WmZbTU++Fiz0zIO6mzOLMMrTMJ4N0KoLbXdGer/c6j/D1D/P5hdSJLz4DM3L5RCzJvrsTdSNgjLG4f3EOq8eUrNDjws42Q50LiHZTuJDjMjhNrx5j5KNtP1OafW9FzsQpIcq8uYaGeuMseyN1Im1JZxsY9QP1Jr3wOJWuR5vysHlT+o6W5CInkjQqgn+XymQb33JLuPJEuozTPVA/wY9kbKru1E834fof69VsSu4D9hGTermto38IqSOLwaIdTjfT7TrN47nt1HEibUT9gxtsbN7I3UXdsZXqFW13pkos+7aeRCHXnzQNfg4hJeTRKXFyOEekefz7yu3tuG3UeSgmVtOy+mE9XDcCZ7JE3XFulDzU99hTpvnljJY48YMaKoHBGY4pbn9m9pPX/b5fyW3YJXkxTD8xFCvbVn+53V67/JxvUVkhzLZaIx0P0AZyx1esD0thx8fR8g1M9V6ritE7IrdbaYm8T6TIu5Sqdlnts9jCz7YUe+cUNeSVIsL0QItfcmdWKpX2LXkSTRbjVu3O3hmGvckr2SDjqszAA/kXZapeLm5SDgys5mY3Udq7szl90TaU19BhJ3MVMeqbRQr+/a9mTX64+z60iiLOqcuV/3tUuznb2SDmDZhgl1R85srIBIHyyt+IdCzytvrof1Z3f5TY+z2xG8eqQcTI8Q6r+p7bb2vP4au44kyurKm//xCPVZ7JWUDMKs7BahQl2BQRkKgCAu3+etPgj/k+2poPORn/21LZfdtka7uw/DxpLHyxFCPVRt94nn9RnsOpIUMpnMnPLh+LVnyvFK9kxahNpsCRPqzrxxUnmPZ5wq76fX3a8hzWdHvmlv+fpbYecixX06Mo7V5GDXMjdAUZtJ4zOL8q5LFjMihBqJ4gf4vN7BriNJAVOQPg/vB9gzqZktOTjUos4b95brWG35pmUL2e1aMoPwf1jVTvxzVJMiflkt9zGiJtpbGtflHZc8ojKTzQuDxfPa1ew2kqyHjNHa46GZy36OsB72Tios6vMjrNhPiw2j6nGsnPksBEtal7siMYmOQNuhV8YhNTnIhWd7vunJjnzT2/ibd1vyQKWWD0T01PeywnY6+1a2S9ltJIHWwJW+D/Dm7DD2TgqEOm/eHiWUjgVc0n2UMxudNWZdgVYDham1+PyX3/PScs9IkPIzt4guc+nOmbwQu4wk80FuPNxb3sCkKgOxp6LEEvWqSzkG1mbhQBZHoO0wQGNMLfVle8vo/kixK9tvSMaC/Pi8w5JNX9m+iRDqPdlNJPEPcp/41YJlNLHpn+ydVAj1mxqCuX1x944xMig9afSatJGtlT6cOt5ocHLhKyv6Wt5ZtQEcxX6NEOrJAZ/l2h9JklD7x7Fa5jXsndrGTiZifhS9RpzNxNkvnMaQd7sYgbZna4xRSe87REPA4pff8wrZ/lTT+jPa88amvLNqh8ERIo22q+czWNdGDdjN2X0kCUzJZObxhma5LB7G+9c4k8ftuGDQ9fXEUu+qu892yxwv9/lzsSLdns+OTvRvYmymHxIAtefM9yoZxkZ6h7s0hHqKbJ2yjRN2ZrJ3ZPtdtv9j95Ek4M3x7QmX+Y3JG2qb1jGjFnOKrYSKp2Xupin61xUr0PZxGjdOaFfNpgYgd8r2i0+VsT14N9UWyDt7g4ZI/yzbGrK95Xn9H+xCkhihbjZWD32wMi60ti1qa/SSfsLjk1N7rMZ+3i9FpONOr/cG7RO2X0A5ws0M7pvsDryTao+/aog0wrDcyeinqNefZveRhFnUI0IfrhONceylOhDqXNYI2ge8/+U+vihFpFstY51EzTTkzfU6LeNC5AsImVH6PiANKqkRzg4Q6LtFV35vN6ur9/ux60iSkJbUduFWkHkYe6l2QblSnfXkzpy5k+/nmxvXL8mKzps/lRr6VVYLuqVx3Q7LuFhrmp6zSTXP4sJOYALxxZrzHbLtGLDt/Gq7ndltJHEWdd40I5yMWJyjhsEatRThHzVCpbbqcW9I8S5RpGd2NmeWqXYfIMOeHHC2yfN5RC+223yvI59dlXdPOlhMto1kWypkG3h5XyLbLur/A9htJFFCHVmwwbyCvVS7wBkQiTk0vL436DbTElHDWkOkb692HWl8h468sb/XezsqnWrn+NGDeeekg/1ky2tsd7+wC3fA8/s7YXt9E5IY4EgT9cBlL9UuEEud9eWOnLmi85k9xo76aylr0nJgsE9VB5+5xs2U9/afsWK78+ab8GznXZMObhb2VHZQKbblZDtAtueF/zo21qv31RR6Qir8UDP3ixDqJ9hLtQsSnrTnsx9GiRRih2dZonnj3qKSmOSb3m7LN21TtUFn3tgUAl3kDMAMpAflHZMO/qXE9uSA968Q4d7gv7v+3ovdSapNh2UeGZGc4kNhL+GQWr3GUkAjROozZOFSIp0rQuR+xsxM1Qabltkiz+HVEqbpH5W7mY13SjqYwyWy04Wdx3t32Y5SAv2MiA7bcrfV2KWk+kJtnBHxEPt97xZzcfZU7dKeN6dHXOOXsB1CuWIK3EMdefNQtzXeq/duzhhVrPXvXtqxrG3n5V2SHmBV7OOxitGQ0AQhLE/EFGq6/pMEWFv+JS67PcyajdXZU7VLp2U8puOH0J431owatKHSGtagq+kVDU9yeS63liLQ6vvcybsjvfRXIota0+6R2CmaAv2RsJ3KTmFXkqo/xPPmLRoZpbZgT9WyUJv3RAjWmc62WGOGlYxkH554+mntE4ywCBfROmaL+Sr/XbIWBgxlEOmLeGfUJ1lNof5aNhRpv1KJPSHVs6it7B2lppckiR+M3RQ+EDMO6XZP5My8/MyvukU0MHWMMKg2KzukUt8BxWN06mprOb1ZxsW8K+qXeWT7QVOsl5QNVsq/2W0k+Ra12caequVrbFwVPhAzWl3bdnjeOz5s31Kc14DwIc1opc4fmc3kffp6OURaDkpO4B1BrtcU6hPV9tuxy0hVLeq8eXW0RW0cy56q6cHYJeGZuBq3tGdXukcASFE7OVRAc9ltpbA/gLzZFTv3XHaXcgi0GnAex7uBgKGaQv0Uu4ok5CF+kUbWqnPYU7U8GDPOC1mr/XLcuBFzey1pKWrXhO7Tyv6jM9/0ZFsuU5HolUwmM3vnRPNf5RJpeQ938k4gbs6gUJPaeYg3naaxpnc5e6qmB2OnhAj1TVKkj/K8dkvo/izzfGQu67AyfStxvlNz2eXkOb1WPku6+xo8IQCej99FCPUF7CaSEGvrcA1r5Eb2VE0L9REhBSi+8Yj0I+H3i3m93ObjzonGwIrcj5axR3ve/KFsIp03d+cdQIK4JUKoJ7OLSCIe4pbZppMUgj2V7musprtfiRD8d7FdBc/z/HIJtEppujevPgljywihHscuIsl4iGctjfCsu9hTNXyNNRyy4FUdlIGukENbijhCtiqRD7t9QmZ5ZDkrp0i3W+Z4Xnmiw3shQt3K7iFJAGE1zOCUblotY52I6/v+pF22/j/v5+BkBqvU2W6aZS5SzPERXw2xR9lJ30GAJ7lKyZZ0LmvwqhPt+zNEqBk/nUCQVKHurK28sZWGUN/Cu6N2gRUcVpDDm3EMsdHSgj63M2d+1LWWbWwfexCYNyfJ/T8P72183nucqMptRa1J5xo34xUncVhCtj8DhHomuyd5wGJob2lcty1nblQ3FrVlbqAh1Nfx7qjx6+xTQUsO0r51W7ntzdlhnZZxYan1pWHRorazvG++breMvSxr+Bw9B4jmmWUV6Lz5JxKj8EqTYng1xKpeid2TwGkQKztEPmQORkUhrN/WwfddgykX62DmxGUdK2H7dVo+s0LhHsg3LRuUZlT+FrQjVNrz5uZS6N/AejbKZQaei2XcVl4rOvt5NYuEkNrn3yFC3cHuSbSlebTyHH0b67i9UXCgOt8zs7KGtcICMjVKIXGIZd7ds864saYtrsamQeFQ8MLWOcakrbeeS1rdZ8OClr+bs0IHDHnz8TJ7dr9dCQc3Ume/kxChvoLdk3ArxC6n95sSqy+QYnH3TGb+VAl1zlxRw+v7QN4NNXp98+ZzPT2iGzd2WcHTA9LG7q9nRWdHy9/GHx2WcfMeY0f9NVykm54s73S38XBaB9Ckd0Hmnt8ChPpedk/ywcPHbQXIvz+RD6V90zKKb20xV9Eoc2nxTqjBgaZPRrJ2y9yxm9C2NK6L+GjZfnG2QalLvdkYpBE1H+/IGaOiBwzGveW1pBkySMrLPQFC/Tq7poYeeh4nm4IVkTf/Dau7poU6InSH9ahr9n491UekdwsTXeWPMDJqYNeeN5od4e2wzF3ly30irPqDy+g09pOTbQwhZTifQnEQy2zBLAC81VFoBnHZSEMqLf4PMSWvPof2pTznd2R7UG53YrEhZySFs08iuC71POyemrJQjgl4eJzZ2WysXu3zQ9xrW3Pj+nGsfVROinw41vhgpO4eOLms4TNN3BFxb3+J9KCB7zeNXCjMKpaff0u2yzonGuNQqANr44XPjR89uNwhWCgyYoux8YA85qOFEDA4seEclDNbZ858tvCeZd6DaXnkq0cBGtlOx+9YCnU7BhmcOicO64jgdep+7J4aewjmjVzIw+oljOzlQ2rO6jygu9abdacvO3PGhHCPWvOjKIuJJOj+tIwmn/vy9AiR/gBCHbHNQzEt3/dRy1r+Hp4u45r02e2WORlZxzAT1DYuswQGp7zqpBwsESLUq7F7atFiMUZFP6TMQ2Hd9uZ5jRgx4i94iMnjP2FnaDLzxc4SuDx/7+EVrw1gycb13IaXtrwHfg5ykoRHN+6pclvFMUX/0ajcBrCOUTcdBWRgQRe80HPmfhhYY10eaUp5h5AwYI18FiDUW7N7atVyMTdwO+CETNPdW401Xqwj6ljWSA8a4bTDLHq1INJ2LPQfnqpnL0Tcw+eEpQbttIyTg7zCe1Gkjwn7DpPH7bggprs19/UqxLy3B9CkdrgjQKinsWtql9YJ2ZWQbEHXSxWjfli9vXV+SKcIL3UkNQkaRMLZJmLqez9e6WTTPmH7BTCL4xGlGWHhUk7pS2+iEGQRQxiiyix2q1MXWlrmx2EtuJfE+V04hcFRLHLAXKSjGkLF5Pfs7GzJDOcdRBwODBDqh9g1tc2UsZl+3odk1EMI64i9JtbSmg/KLoUsbJFViDhlmHT6wFLscd1CHAqdZD6teXO9bq/njCmzcgZIAUf6T2WZH12415szC2Mtu8yi/CsGsciMJn8XZyC5UJzBLKbFS3ZOs8wbnQQwpL4ZKYLXqddh99S4RSMfiigTGPMB9RAeSr0j1uY0OI31OO+8sXPEOT7Pq5tsOqzsHT7XzQyxQA+1M5OZU2fdBzljDO5f5P7GdLd9b2RHq33d5/78NMscCmu9jEL9G8Kkiv7+efP6snmTW8bFnRONEbyr6peGEKGGV+0c7KLaBp7e8qHxVBGj+RfgwVpRqz+TmUc+hK+CV3h3a8Q4KrxcYHQiC1I9MDXtcz+1h4jadm4HwUJubjUb5M7n3jmx6Z9quea5gHt99qDc4EXXj86b0zE7FXuQrHwxypxM5YKoLGskvYTVp76c3ZMasf5PkQ+HqytZWEDueweUHfQ86G8Jy6HMK5pgkbbM43zuof8EW96ZvpjSdlJvqvhjJP84R1qRA12Dt5Ns4cx+GBVjDO/qMk+Df9aZy+4SfxBq3ldusW7Pmd90WsYhTjw4qR9uDRHqX9g9abJ0jAdKGM0fXMGH+zRkc+o6z+Dcy5U8D1LioMsnVlpapJ+KkHj3zpy5k1fUJ1ujl3TeR3iWI7zI5LV3i7l4+MCvaW+1nysRAlZWi9bK/iP+vW08VgnHtoJTXQKSGZHe47AQoX6G3ZMebM9Z4/ISHg7PIMNT+R/w5tHuDFXygTwzyJqABVaBgcJhSAhTp7dFH/1+ym4RFAMfVO0sbPmkI2+0IlbaSWCDeGvnvWnNo5cuJCaR1mxXLvuuGtU99pUz/uaIortSViG1aM4YU8j4lTeORbY+O0bbOBvpdzFV3pnPvhjDuj4z5mzW7PI4J1TMEx3foWnkQny6pZ+dQoT6ZHZPCi2fvHl1qc4tCL0p3/lkV0XcNP5WxUb+CIj9zpW7L6aONxrUw32DeroHWlsygyCucaZQkQrTWUuWAnEAko6EDa6CSktCkOFVrQT6x0Lua+UNjmltxCi77wFYj6EhXZZxiCuRymHF9Icd721MlMd9ROP+j70kKAc5GWfQUYGwsY/luWf5ZEs3q4QIdRO7J504a35FPxwmmv9Fta4yDh4ugNNOR75xw4CH0deV6YdChaZX6+jSz4b130KGOilO8cSmqwCM7LNLMS3dmcuu5ZfGE1ZqgBW9f1A4IGLj3WIm//4eIhxyz0xyHCXldrdh0FWugSO8z8OSqmB2CalC480cZfqq7/hLZQTbuEonxpvUJkuFCPX27J5UW9YnliONYjkeDoX6wbnGzZwHeW9Y00jhaK+jGjvXx/Vu3BBTzR35pq8sa9t5ixEw53q4BjqX+l0vv9SaHbns1krkJvkMmG71y+cOnwQUu4BjFkpXqqIWz+M9z314p5raPh2DEKQXRcWt9ubsMDU13Ke4PjNyQRnG4NgWkrQnTLAHSMv/7opNh/uEPJLaB0H8nwcIdTO7J/ViPak8a2XmuaWEjmAaVVUR+qS3avzCuxglBnszK1tVZk/s5DLPKIeoO0rssyvc07/OYMcjmhcFfBZlHWfYVj1qRhtXIQyw2GQldnlI41tp+X6nse0XsJDlv5cUxNflUa43kDQ2xX0YcO8X5d+glgBur4x1nX2RZWDTx5MBQk0P2/oQ6wPL44na9BUe3MWfh3Ge334rUZvXyYLlZ92lBThkOcKqpkZfLnWfyGHtzQ5XKDxhme+EHaN9grEUBDlKVCG+7TnzPXh/Q/Bxb3bmsnsidh7x9u3NmbWRuc7ZLwZZmFJGdjJMReOcnJkZ21HMDv3SXT+PFtdCjemnfc77lOJnk4ydgxwoy5Dd7Cw6m6WH8wKE+lp2Td2I9XblG803PVlMrmI4dPl4tR5Q5FcKnOqcmssu5yqVmTrstX7zSrdDFmLTy2aht5ibyP39if065RxVEYqTUXMZFrOzbWEd2/au/sUbD1+wqKWgysHdbvDaRnaxSeMziwbPDBgH2LHWssl96joAYpAwLZ9ZAalJ21sa1y38XWK9Z+xD5Rn/xG21I9ys2PsVU/VxPNDjxF7Dg959XUhtMjVAqN9k19QP8EyVFs8P5Yv1NI6P43CD6kHedcfY1kkhbaqxT9hDCQLhTNen6frZYmlOc0Ke3NWZKmOtGw9LsXywW/9La1iJtdPXL3vO5QqsVcc+nmUuElCc5VndGueVAGv9CFmU3/kazChhKh5hZxgMilLWxStQaARe+yUMJEgC2FoEO5Qtxe6pHzCt6H3Ql+bYYv4orZ+DdIXGbZUXNdjIm0fAUSdQyK3GjbucgdLjRIaHO4TCxxP4ZWSmq8Qx4RmtBODx1jGjFlP9f6uTehMi7nY6hMVcvCAOn8Pv+3WrOuVJRVuV62Bl+mLggAp2pWYPa881bqkTLlaEd/jL9RaOmBZWCBHqEeye+qKwFljmer944MgHxFbRDzo4GZm/Og/++EINJ5rgWFpnLRVrpe444Jq9VlZm5aCUq7DuyhWy5AbC323t2zLvUWvKTwRVoirPjI95jYYIdaTv92iMwuAThULKLNgnFZPHnFQPhGp8FyDUjeye+sQvPrYMD4cHoop9QHhQWrCIU0ZpxbeCSmDCEciVtOKMFFyfU8Ic+zA9XRnr3fYgVyL8pWvA8KVnbfQ9eFl7y1YWbWFOMJbSLaQRN0a8RgZlAxB65hcZUcIA+mcsl/BpVzvMEAzRIj0eDsbFlclVbBzb2ZxZxleActm14ACDqfB4ApLdAYOL4Peb3p71MG/OrF2r1wQDHfe0sq9YtTSuWxmR7h7njvSc3cS0OTsMwlzKNHfo4CRnTNAU6+/gc5HG32Qh/3khvtu8B7nUy5WK1J1jnSSXBwOEupVdU+dinTdaK5acIW+e6ZeOFJmmUGAh3qAiewfCrgK+w+GuY75eu1a00RHVp37JRsojktldSnX2K9NMwq0xBoTnpfm3CWc2ZHhTXv4/l1jS8zvlBEcSzNUBQn0Gu4bAQQZpQysk1u8jVra7sJrbISd5jPNbtlAEoiUzyO9h5rUeak6gx48eHFb+s8t5L145Rl2QzMZ7rEqsf+talEHr4QFifW+llgGSBCqLwUESg1IsOQRlVItYmvoWvz0+8ZLLqYIVtEgIKEVZqUxKSrBvReIKl+X0lu5aIzJcYe3U/z1j324P7oAKUImd0bDMXXXyQ1cizaoz0MEshOda3VfNPilUpcqb38e4t75A7HPdDbCt7BodOWOKvIduDEr+4jsrU8WQNxLOfiK4JjUz2xC3tXugU/2oAmL9SXve3FwJ9UuwDCKtzby5OxJw+MVsw3vcPSWI83YPBpKMLZDGUZolSA+szCAh01fu+zmfbHFDq90/OIc4ljUGO5Vau68FCpXJkE7WMjuRQ8COxLAT1wRUCduDT7vk8Q8RHKK1JbuHuCkUO/BJpVhG7/CtMAUHp7IIC/9Mezrb33EIaSi9Vnst9C/CZpA4RDexTCXOAc5Ffqktk7Z0EGfNurA8UiYv9FQMuuFJbhlNGBDDS98nD8J+7KVkMSZEqPdl9xDfh6RltqGKUIXE+ijERftZykg5iexNcCBDpSS/c1Nrmb94pr0TH24Iz2asFWrWBr+8EueAWHqUovQ7Zliaz+rN8hg5LH9oWtZ/uPOFk1nMhtksVYoTBXLed3IgFJvXgJSfHUOE+kp2DwlCrWFeVKGp8J/9HKTgfAYhiXh4n+ed+kSGq6rNQljmZGRGC7dwzLP0naTM6yszUCjUmP49oFJUomNu2/NGs85MBAaXUzKZefjrDUcVIbm7UF40Z+7EPqs+m4QI9QvsHhL5gG/JDJc/6vPLLtY+KUELiR8mmvcHC15mZb+80NXoF1XF6pGwSmCo6Y00mDEGMBUJjZKWfDYozAex7zVzLxYqaJkHh1Wlku8/xV+t5oyF/D2154ztUR4US07skeqxaohQ/yQbR1JEcxSeWS2odm+xzVvrGmvTYUU15PvX+ZT8OzLO90DCFb8Y71gWnp2v+XslrpcEiONWMZNTPFaRh3HOGBUyMPi6Fu9FlMFEvWjUwQ7oy4P4i40Nq3BVkb5KkIPEel12EYkDMmipUoBflyGTWWt3i9q4tiOXNYIeJH5WIRxnYg04mhvXx9RfkV+/jzuLV5BXuhSKE2IuBTxREZHOG7nwwUF2i5q3CvPmdpiJ8JmxaeGvldQSM0KEehd2DykGWMOYqnan8CzCsexhZ39I7IAkFk4t5J7il7X8ioLEtzCzW2P6tJjvjIIf8MZ2ksR0Tmz6p/t9rPVhsBFvsGI+V4k1Qlj94Q5r5o1puh9VqtlXPeFmi/CXSmqFu0KEejK7h5QsCi2N60or8lRdr2a/qVeUsoRoBR2jM5f93Md5aHTcc7VDxIxrSxNBO+RFuKYLkXgjbpY3VeO5T7mvB7zgI/r997SuSRYEO2d+pL7nZ3CK5C+U1ALnhgj1qeweUi6QdASWLyxj3alxJw0kqjQFrS2iSISf57goYl2tEKpimU+XIgSFQYJlTu7ap7EzanTHtaRLXSv3A0sTkd7REV7qtU4hhM8yTlYzB3SaJTVBZ4hQv83uIRWxbKxMX4QEYU0X06yqPOKfqlDAD8iQhNSlSKWpyin+GXgD+4TmhHmHh/4YrOwWsM6DptijcCdYUSFsl8af8s++WBlLOrs14onrWaQ9g6pVsTSD2Hz+IknSMUKEGg1B71vLtjK7ilSQPnbGpMzKztqhChu6BKFayF3sawFPyCzva5EGO51FDCCMkcWuX8qH/mlqylugUAjylhcRlvZ0JdakMfUeMd39J2YD6tJSkYM61PlGuk3+DElSWSdCqJHV6TXZTmNXkd7GZWH6P2R9QnBgnRf90JaDg8I+JhhLxfkcMnfJc/kN5SaRIKTIRC/3VcSSth2pfg8pdfgprMt6vs8Qgy37yITTIn91JInAYv49RKgPk+0EYXuH/4XdRSpNJpOZs7Cuq+KikVTF3/o1jw5Y351U9ANbeY+jxGQ8gTcfxYACllmRHu5XVUSAWsxNoix4poq0QaQCajNjWUYwbpgkkHdDhPoBtQ2mEldkV5FKU6j4kzcvle0yJPrwK7/nOG2VOy+1FMx9ClPfMcojYj29xJSpp1dEpC2zJSJn+M2823qCpDdImsKeIEnjQRHtUIYwhjXYVaQCFvTsQQ/Gwvq0J40lsqCFWKYPlChuxxVq81pZrXvdjhdv+qropC4xM6dpDx5yWSNicHAF7zxCaot/hQj1r2qbrGz7sKtIuYHjVpDzlhTeG5BL3CXqc4YJY6kVkhwvbVTqitq2EG6mqg0VJdIVqurlzo4WkELzAN51hNQeB4YI9Q+yIfnBTNluYVeRctOeNzYNqhfcYRlnQDxdwv1wiDV9dqnnIgcF9+ikz0R8d3venF7kVPcnKHZQIZFujYjPPph3HCG1ST5EqD+X7Qn195PsqnTQOiG7ElJeJuFcIC7wuA2yDqVYX6ys3SPCwoswhV6yUOfMZ5VQZ4K2gWewU3Qjfv5y85nOppELVaIfsaYfGiNdocEBIaR3aBLhIVpO+1G2BdhdtQ+8geGhnIhzsYyTUWvaV6hzZl5auW0IlwoWv6avUEyjTGI3Q2UW283vfQwGkCCjSEv6lEoMjuwc4+aVIcf9Al70vOsJqW1Gago12t/YXSkRaylKKHNYfYva/LcU48P83oMV2GGZnXB+ChLpzubMMmU6lT6YllaVu3L+fWZcVZzTWPYfUccu+pwt47EQkf45bgUxQkgy2TCGUE9gd6UDKUaHY6q36udhGZc7aTd7vpdZWYrcHT4C9BZyf5czQQU8uJG0RE19Wz3PxdygCCv60qhkIoVa3nbsbiza8k3Lhln38r2H2puzw3inE5IOVowh1Eeyu9IBKiTZCUXMTapq2VvGqciO5ftes7G6FJwzsU4tLe835d+3oAiHqEAGLyRWcdXCzvkMKC6OkcDk5fbmzNrR3z1rdU40RoiYCTamjjca/CqGudfCeYcTki4wmv9JU6gvZ3elB1R1KiXlZnmE2k7M4ZfjGtWeemstXQpxU1dRD2Nct/MYM2oxTCNHWM+fIS4a0+dR3tVw5pMDlAvbctlt454n8pvjWCHncV2FEnYwWxchVeYtTaF+iF2VHlB7uZDNq4oe4K0t5irKCt2qx/nlzBWl6F3QSwOGw4KKevhV6HJZr0/ZDm92WUrU3W7Pm1OD+7yQe/ulYvwDMJUdViK0c6L5r5L6oGnkQigogmuCjHAYcMjjHVPwE5hoDOQvhpDqcqemUD/LrkoPsOhUEoxDqnUOljV8DiV4V/pZj70l1Ci36UqvObJLpI1D1GtNsILtil7GQe357GisL7v34VSpwnkHWO2IC/84KG48/FplVguz6hFjjvVwxKXDa11uuztSoiInumxnYeoeznD4nvK9O1EEBI5oqH0tX39N/v9db9gZBihIkIKSpEyrSUj1OVFTqF9iV6UHPHydh3I1zwNT8KiV7H3dLpJgx1FXfnbBfLOropSxqW3tZwapcK0dNfdxQVBfQkjld/xVR/AmW6OXLNThRn3sicY42Qf7wlIPj9EuPpWpz/T57VFJXwghvc+umkL9FrsqXciH8k3KIuuo4jk84pcCFFWspFV3zbhxI+Yu17Eggu1W48bdrNVxmSW6JQdR3tKwMGFV6u5bTT/f3+M75M1H4d0+67VmY3U4xamp5UvgJIfPSWv3Bfn3TNl+KZfo6otz9kWEkWH9nL+KUmdnMn0xuEPueJ10tIToMkxTqL+SbQ52V6qE2lRW1JfVOwfjKFUbudvaLtZFEWaE0Kkyft9jvF7dWB93ixZek+eyeWHwIEVc7+Fs7up1RJOW+ZqwopWV3lyIGVex2klo7TnzG1jPmMav4OXtk8bfDZwfER6IZQ7cKyiviqUF2ZcfFgZ4yFNgmUdOGZvpx6cMKScfa4r1cuyq9IBQH7+12d61QOwYZUzveiyTAYiZRm7tchwHa8NYI7asbeftdhxXIQv5/gftLY3rBsVTh3wHWMO/OxYVMq659vlbUsRZrT3fI/s6i5KOFbuvctnlOnPmTrtnMvPXsGU8AOvzGIRhECn77dzCsoC8JxFSiOUan2WDR4rx5idEl7s0hXosuypVzAZrWllY75UjZ3ZcsG7rODK5HdsKYVE586OopCExxPRBTPX7vH6W60H7OgYMOB/d/c5yIsub3yHu2+nPRIlz3nwVjmWVntpGJTTkZYfDWnuuccukWtRuixhhgAUHvJy5n1qKeEj21TsxcrjDIW8fWs+kNzhHU6j/xa5KF+7UmJiGrso5TDT/1WXZZ1bGawgbK1Sbypubl7x/K5vBvv2ymSH2uEfJTI9Hd3j/ma8nTZhneYJb2X/0RmgVrM+OvHGeGhTcp7tkUOlBqBw4DO3IZbdut4y9Cl73lnEbpqWVRfxTkcVV3izsK9e42aTxmUX5BCG9yZGaQj2DXZUuUBvZ9XD/thpWdVuL8XeX9fc1PK6VCH6CqcdS9+9kDPMX8e5x0pi21t0vLLEEWc0/qyn4IxAL3SsDrJbMcIjWrHOQVmlvizHEEilVO/KNGyIsDTMkhfCzvPlBmfr1Y1jZsJrLVQCGkKJng4R+KtH+7K70IIV5ToRIuXNUV8WqdqXFxIAB65vSerkLD8jSrD07/adK19kNeIF7HaxEjCxcqE5VVXGWfYYZEcwYYKmgVx4Umcw88pgTMZ3uSrZyP6qcVeqYSCgDb3kMKrumqJuehBi7790yDnoeRSREm5Vdo5xRB4SUys4xhJoxlmmzqj25rKsRVoI1VG/ObCTjkOe2R9EP+JwxRj14n/CfTTBGeSpd3aF9vmqqV1mSP2I6taJe2nnzu0ImtLx5XSGRSS67deuYLebrtYGUtJ4hXvAbcAkaEqXsXo79w7kNx0BWNHjPI7GMKtryfKXX/eX+3y+Eycljxln2IKS3WTeGUI9jd6ULWJueB9cTVTiNPn4PZFhRRT34XdZyUKUtxLp61h//rWf9N27mmS6/EN7kqKEtRfQcZZEh49dnUmB/QJgWvL8L/9oJXmbKY98NB76oOtYIoSt4rDeNXKga9wbCzCCYnvP6o9TYe3iGqyxqpyNLGmYzejU8zQ6lOhNOb9VY7iGkGAbFEGqL3ZUuMM3c40HW0rhurw8YrOwWPmL1eFiYD97zOkxhuhJVpKLE10m24hLcE6LOEWlP4ZDU3fnMPyQH4o04cDhXuePBMU2N+OUwRzQpkDtXfaYl37R39xmHwhr4MY4PgS4FD345GEQRFjvMyXitKnHjcnCEim0YaOE68pdPag2kNvxCU6ib2V0ptKqlVdN9/dP8qDrnYZ7vI9bHBIuJcbwU47HdX7NFGg0hQ/7iscV8iH3uLkTh0+zwREc4jjcuWfe7wbKX59uKTGAhVvT3CBkqtv9gHWIaGYOD9pbR/RErj/VjOF1hrTeO9VhYj85ld8FAJG7cNY4FR0AUfynWw7oMU9pf4PjI1V7JuHFCepPnBWOp61eo5QPZJ4f03lU5F5Xa1F2lylcMmjNrywHGG24xhtfzLCvKMneLY72HCWR7ztjeJ1QH1nqo81khRAhhUoU19+4DA7/pWCeFaRSw0AsZsXLmfihqotavf4kpZDPsAh3m3XYlMOOxQgjTRPNfhbKdVtbCzApixZF4BsIfJvRTmjMLI32mmv7/ogrC/Cfi5ZF3HfezU9WMkDRxvaZQZ9lVKRVrzxpxNVOLupNOYKrU/3yl+FnmYS5L+kCX89X0CMt9mue7fh1stZtXK4v7ZljwUgT2hHiFWd4QCpS0dO3/CpXdytcxCtPKcaw+p2iIx+HsU9knDxSsWMu8Rv59gxLe+zHNb6+dmw/J9++FOHum/R+zs5aZ72oI4tfo38I0MgqHIDTKMg4KK8NZQXH+veAIJq8Jy3GSeuAYTaE22VUpFeqJTf/saTUax1bjXLCuCStPPYyv62HhIpe2ZT7tWHhOUhO1/a+IrY0YlJweNXtghwMVQqBehvWuMytRiON1hQzBuoQlWqhF7fKY9ojNTcV4cMPJDJ7t8JTGMWIPhvJGzgmHk+dwGcKu3DMEcGBDMhMMSpDqFevmWB4oWPKW2Sb77O2qTGlj4GEZh2DJo5jvTUgtk9cU6vHsqnSCdJ1+D8a4zkNlGzhY5vnwMPabDi5kiMqZuGcFhMozJb1d2H4ROx62zozjOdZwlIMZ9lXIBe2xRKXone2IryOI/pZ075Ty9APObt5c5BhM6OQ5R6ERdyx1ha3mLwszBNJqrta9SEhS2FRTqPdlV6XYqpbWo5/FVx2hNt6QltyNPUTaMjuRiasgGKqIRpxzlWL0LCzIWWkvMSWdM3dCClXE7ar9PO8tidltH3Zc8dlOhSz1mVvaLXOy28qTg4YTQwpknFv1620ZpwaI430o3uHeFmvQ8vWL/ApSlNli/m8hqYm02hE+VcvFPQgpNwM1hfpcdlWKrWrLGBlg+fV6dS3EGUMY3K/BSi08zDEtmzNX9KZ7RJGPCCu9zSlnaQ9MzMfd68aojuRY6n4gPhsi71keON6veAjWtEMs6ZuTcL3hiBea29oyj3S2RaauCgrzFfAxQJrOqGtISD2DtalPNIT6TnZVysXaE4LklGuESPWqtWc/wG/yiPc3EFIpGkN6TNFHV4dCtbBfnalxJO3AvrDODUckWIzBg4bGLeVnb3X1x0VYt/VLMVkIa7LMe0IKZrycJDGCM1hEgY+XnSlnDJSQuQ7OeFgrLsVDG4li4JSGpDCVruxFSJp4REOoH2E3pZvOnDEhCVO1CFeSovofl/X7EBzMENfrY/kdHfm9Cp7Q5iOu/V2HJBwR5zAaeaVdfXC3U+Er8Dhq+jwwDKuCebGLvuZ585QIsf4W0/3ezyHDGGLD4bWuWzwEhU8w0HINni5RMxPnMUsYIdFcoSHUD7Kb0k0h73LAOmRQFq4KicdLEEZU1yqEYsHRya75/Fvc1J9OhS4nhKcwhW0Zj/mFRCH2WYVSve8aCJwVVZUKyUWiRBox1YkdoOWNk6KsYPRj4KCmObM21ugx8wBnv0KN7lz2cySggfe7S5x9BofmTk5Oc1XLmhASwFkaQv0Qu6kOrOqAhzaSavTWOeDh7i1K4XM+v8pN+2iI/gxYbF3WNeJ+jYe7bTN+9GB3bWzHgkYoWNT+7Sxe/uFXbgetpF93OO9FpuPUTMrSYWX6wrN81v/z5nZYLggKnXPHhne2mJvwV0iIPzp1qZ9mN6UfVc7w2wBHqDN6ZbBgGReiohUqRaGQhY/w/aFTexkxt9i2m4jkjXud1KNwYEJJTY+Vfr1uKk9M//qdnzfsqVbySyOJTFSN5rj7LPgBdI8vfwfXAKFtSG8669hNIxdCfLx9DXo66BFChGjXEOrX2U11YlVLgQucwpXiWfnjZzOFUKoApyWk9YzaB0RAWcaz1qILla4s43K817O8pnmTysjWR+ccCzm189kPNao1jQ79rlKgkpS8A97eEWIdO2QPCVoCSnj+gOuAAU/XQKpxQyYzIcSfJg2h/lw2OnzUAe5SkX7Nz+NZl0LdYR/npG7ilTP3C45BNg7QEpy8+RzEvscAwK5B/L5rivuagtVnl5a8RGtUOyGzfFTazEJJyJwxwWNdzlmYZm8xN8F3tEPEsi/Csk/S9UdtZqwxhziYxS516R0Y+TgsXhNUlpQQYrOhhlD/KRtHunUCHLVCHtRnF20tIzdzSFUsZAQLEb8rtI6RN7LY3usw5g2dQurUwusQT8t4zL2uGmYBu4U+2JIuOFTticQnhZzU+aYnkZPb830+SJpIu2ckkDs84Dr8FjdTmD0YCi9zWajdbc+AzMZfICE9WVboJT3Zhl1VHxTqPYeUKQyrUBVqjVqNG6NohL/VZVweYnFp+0iowcRJ3Y7rqoIlv9dnTqhVobBE3pyhEyteSL050fxvyTWS8+Z0xCTXxIDNMnf1q86FfogrqIWa3jnz2aj+QS5xnRzrhNQbKAv3g4ZQd7Kr6sqqviAsLraYfWJtt1DFSVqmnmNdHXKsd+HkFrhPKzsE5R9ta9ouuuHzXa5XYVJ3OE5McFrCACAsZahjXRZKa+aNB0rMXT1T7mOfWrsPCiU7fZLhIKNYfOHP9MVARWtAY5mT+SskpDtvaAj1Veym+gEP6Kh1xWL2i3AlhOvM+r8nNMq71hvmXKSE/3D5Zx+n1rTfGrjXsQwVo+AMFhQyhGMWim6gDGTIzIJOg4XoXa+uRbA27f1uU8Zm+hV5D1ymNbixzHtQUY2/RkJs7tUQ6pfYTfWFkz0q+EEaXXHJZ583OQlUpFV2aFj947BQKYgE1ouddV5l5T3lY00fiBChrv8bx9uJVLJrdbOcd9n6/wpTvXLggHrHpU5xw3rHOnWqZllQAtTtjOdx2Is5Y3Ow5kzEJ50TjRH8NRIixEUaQo3pTla0qSNUScRfwx6kRQj1FXDgwnR1eNEG29krCCXMzyhrr5CoxS+XtgrpGqPE4U1p4X7ldhzDtDrCksI8nWNMb/9aqEWd4jVW5VD3UNeMQXaHoveVa9xMtyoX6mHzF0nqnYOFnkPZCuyqOrOqLfP8iAfo9TEtqUORdATTysH7NPYPSlvanjc3R4UteFEX9meZGyjrPlOwjMdnFoUAuLb9Bs5kao34Adeu+iBfdVRmMQ1x/gJ90JEzptRTDLDjDwDHslKKjSDjmXbOcMs4hL9IUs+M0xTq9dlV9QXWcaMdf4y9tB/MctuIdckWe4DQPWYacbbuOs+OVaw+84pLQI5wvNLhvOV4LSPj2azBgpVZOSpcSG9623zB6xhXZ4O4FjVYKbW6Xh+EsWla1nfxV0nqlY01hXoMu6ouH8jnRliVv0/aeuu59PZlHBRiSR9vC6kxEmuY+Bsxu3L/t7uE/BVn7boj33SaU6ca/5/WPHppNR0+mz1tb7yszm/3WQMPaanDa70M09yI6677mF9n4IXZi9KtdONsTSezux1Pf0LqicGaQn08u6ougcXzZ4R1eaPew9h8PED4bumyeI19UTMaf8PJC9Z1IYmIfEDP2iaXNVRlrBGuQcAJyDKmjlPIw+1OKoJ9hiYpifiOLqvuRN4SLrHOGzvLvn8D8fel7ivsGnnD3eD1z94n9cScsn2pIdTXsqvq1ao2To18eOayu4Q+hC1jj4BsZ7NC/wpZrCzjkDYru0bQfpA8Qz2sr+t2jjnzIzlgaJdCeqV6/6Jux5cCK8/hZin4x8EbHNYg1svbcuZGsMR1HJviTPPX1f0x0RiHpQbdmZXwe62Q7vUXjfvtc3eoHyH1wHMaQv0Bu6k+KeSqjghbgmNVuOXVPY2mU1HJbU21tzSuG+U05Fjl3fZtNW6szuEnVwEPraUaiLbmlGsL74SQ6yuvAXKhl2NfSEijuwyBgRZ7n9QLNwu96W+m96tTEIqjkeDjNF9xzTVu5pdO00ma0W6ZO9re3uZGYRm8ELaFz3pjrGFde7On6RQQifJqjyv69U5YFrlixFpexye0BlEpSCpDiA46sdRo7eyqOraaNFJAwir2sYLv62lN2zm31fu32uUjzc1RZcvv2HAQc5yJfPb/hxMu5vXyDrHMb9ETAXMnXvnq4dSq1pjxmMbeImnnVE2hPoddVcdC3ZwdFu3ok33R/RmEVnms3e8LMc6qXjOmvOVrH9uWd3YXb+Url7C+hCpLPR/kxgFKnG+T7z9aqJ4VUmgDcb8IKdJyHMsZo3jVEzCbE1Eq0+XodzB7i6SZIzSF+lJ2Vd1bONM0HpjbOdtPy2dW6LamaGWHwHpGqJay0r/ryDftrdbBT/E9prRqlZf3uG4DB8sc78TyIu+3+vuRiPO/R0+kzUZe7QSJtaYvAZZQ2FskreyrKdTns6uIFMPnI6aLf0S1JGxrC7DxAGowO5W3bGHNrgprW773rW01GfsGhT7BUc3rQObUnkZoECwpCL7tXOSf1QwFHvwqQQU4xpm8ysmjrcX4u59TYs9lFWMP9hZJI7trCvUJ7CpiC6z5fZxwLSmsW0GU5UP0DNSFVgJ8hBOehRzSfnmyOyyzU61BHuYSbtOpL43iICjiEWZNw8kJyVI0Lek8r3BymdKcWVin7Kh7VoeQtDBaU6g5rURsC3VCdqUIq+bybtZQvmkbJ8TLqSwl//86QnpQqEM+fG/oNhBoGrkQ1rGVh/inLsHfZ9ZgoNlY3f3Q9ku60dpirgJrXsu7O29O5ZWtDTryRi5yZqQ5swx7iqSJ9TSFek92FZklmtKaDZk+/tktnFK4m9TrfxaE28qu4TiHIc0nkpW4HsKt7n1hnVs5gV2m9vGLtHxXdNYtC5mqfLzF23KZ1RxrO3q62+jgFa0xsbbMDcIiEVB3nDWtSZpYUlOomfSBdH9Y5oxRIeKX7RJ1VcRBlbBE4hKnoIYU5mshqrMEFs5mefMllRTlLFhPjjUO63rqeKMB2yF9JZrvIKLF3EQ7d3dEWU2SdOu6q2CLz4BxBnuIpIU+sn2oIdRMoUj8LJvOgNKEJ7gepgXrt0tkzR9QghKi3JFvetvfYjfe8Dx0L9OpWKVKW/6hGX97HK9gGmZ3zJaggivwhWAPkbTwsGBhDlIk0rLd1PG8dj0gb+oS6qa3Hc/tQrGNvPmBEvCrO6zsHX77tKeujZM6c+Z+WMfWGzT45xSPk0mN1KhYTzQGwimRKWBJmrlMQ6hvZTeRYKumkHTkA9fU91F4HSk/lXC/payfaYhntq1f8xukGC3PYMGcqj3dbRmn8oql9D7Mmxf5WNU/seIWSQOHagj1a+wmEmDNjMBUNSoodeSMKVhbdqopodKReljealu95gvIz2yvRRsvl+nhfEyMetKn84qlXayNrXyuO2ZxZmPvkFompyHU38s2P7uK+FjTB7irYflZuR15E4NBUXAKm7D9Ah1W9h/lsGzlA/hS/elug8s39XJPtmSGy3vuLk989dXsGVLLbC/0PL+XY1eRnkJtXoOHoo+I/g5PbWQrg4e2kw7UtqyNi5H3u0SRvlNbpC3zaF6p+kNe93M869Vt7BVSq/xdU6hZrJ34CeYn8oF4ZPfXjA415bg74qcLCUos4zHEvhbioi3zaVTFKuZ4yiHtcX1L2jyQV6l+kYPEZrdXOJ3LSK2ysqZQs+wf6QbSOtrpN7Nbu19XFaimoAAH/oa4OvWDC2vaRa5Pt08wlkKSkxiWNMuzEiTZGeIO+WOaUVKLLCzbT4Kx1CS+tbJzoSBGvmnZbhZ1LruWU+ZSWjDnO97fyFiG6cigallhTM1ll9MpzEDLifhRmImxjNtmZS+zzB3ZK6TWeFdDqA9nNxE3qF5lWyjZVb3vzcpI1pIZLoX5iq71afPBjnzjhjEtojWQKEU/41j3spiEdN2zxrWuGRcu55Ga4nkNoWb8Ken+0LOMi4PKQ8rXHsV7rS2ZQWqbU7A+rZKc9NE9hl19y04jqlcFK2vwypDQe8oyTqZYk1rkfg2hvpDdRDwW9X9U6JO3ulof5OzG9GJHzmzENljPRlUshFTF2P92ugLtt1ZOSPC91XSaUyyGCVFIrXCphlBfx24iHmv3YfWwO9Pz1mzTLHORwjYq6Ymysh9CoQ2tfeeye8YRaVjevCIk5kBzkir48p1gQhRSAxykIdQPsJtI9wedvd7nrUHtEvKJyrFrGsKxCo5nGtYLvLVjWdKcviTF3sOWuavyBP8Pe4MknWYNof5UxFhbJOmndUJ2JWklf4EsZD4i3qos3UIoFnJ8y23f1XhwnhUjJegfbS3G33klSCkgakGJ9b9pWZMks5PQi6Vell1F3CAlqN/DrTOffRFOYI4FbcdRZ3cJ21ecvN2FKcvmzNq8AqQcTB6344K4/yZbo5dkb5CkspWmUO/GriI6oDzlHmNH/bVgJeeMKQivCrekjZtjWNJ/xg3xIkQHRCawF0hS2VBTqM9lV5HYop03f0UJwkCRzptXxnIcK1N5TEIIqSXW0hTqD9hVJA5OeFZbc+P63vcmjc8s2pk3Xosj0m35pm3Yq4SQemSYplCjrcTuIjGs6dcLVnDTyIXcr6N6FuoEx/PuNkayRwkh9cpSsv2hKdTT2F1Ek9nUmvLr3a1sY0ocgS44juWM7dmdhJB6Zn7ZvtEU6jPYXUTPmrbLXSKxBP6fyWRm99YI1iuwkc2wNwkhRIj3NIX6MnYViaJ1zBbzKWv6N/wfsaruUoP6aUHNRvYmIYTYvKAp1EwlSjSsafM6lfDkbMQ7d+bMH2OLtGa6UUIIqRfu0xTqm9lVJAgkjujIm3c5mcOKsaKDKnIRQki9c42mUN/OriJ+qJSiHxcjzB7HsTHsTUII6clZmkLN5PXEl/YJxlKlijTrSRNCSDCHagr1s+wq4kdHPrtqZ878qFiR7swZE9iLhBASzN6aQo0wLubDrUOQB7m9OTusPZ8dDW9s5Nt2FzFApayiLem8uR17mBBCwmkS+tnJtmV31R/jxo2Yuz1vftppGSd0WEZTh5X9R+fEpn/Kv8/ozJunyPZLkdPdW7N3CSEkmi00BPp3YYdnrcHuqk+k5XuitJwfdr/WOdEYKF87qjiRNv7GXiWEED2Gawj1z7I1yDaXbJawU4+SOkNNVV+Av6eMzfSTf19vi7jRqr8enf2cpSoJISQeywi9aW/UFf5O/T2I3VZ/dDYbqxcqWVnZNRzhbs+bU52/NWKkv29vGd2fPUkIIfFYWLYfhf46Ndqy7Lb6pN1q3Ni2rLOrTh1vNODvglWdM/MRIv26FPgh7EFCCInPHLJ9ElOo12W31aFFPdEYWPg3Z0yQwvtF4W/LOLXDMi4v/J03bw8S6mnNo5dmDxJCSPG8H1OoGVJTZ3TkjWvtilbmK1KcD5Gi/Kdsn3Xmja3a8+Z3TpgVPME9lvRMWN/sQUIIKY03Ywq1xS6rI0u6xdwkMO1nPvshLGmkEJ00PrOoLeqNG0phP14K+gGWte287EFCCCmdV2IK9WHssjoS6nzTk5rOYj+154zt2WOEEFJ+Xowp1Bezy+qD1ry5XhEVsG5ta25cv7MlMxzWeFsuu217rnHLQssbzUwZSggh8XkmplA/zC6rF2va2CeGQP8m2/Pq71c78ubBbfmmbTpz2bWQ4KTdMnfsyBv7d1rmNPYsIYTE44mYQv2RbH3YbemnLZdZTYru75pC/Wenld0CHt5SjI9Da7eMvTAdjgbrnD1KCCHF8XhMoUZjuE2dAK9u/cxjjZu5P5vJZObssDJ92YuEEFIaTxYh1Juw29JPoYSltJR1RLo9Z36DAh7sNUIIKT/PFiHUZpo6YMCAvgvJf+bkrdCdzrzxmrY1bRkHsMcIIaQyTC9CqHdPUwcMGbL4YsMGNezBW8FtTZsHa4v0RPO/UzKZedhrhBBSGWYUIdT7pa0Thg0e8J/lB/XL8HYorC3PHqtspWVwkEMIIRUkbgpRtLPS1glDBzecOXTwgJm8HcLzdvf09jZe5to0IYRUDjxgvy5CqO9JW0csP6TfJsOGDPjfwIELLljPN0S7ZY6PY023jcsswZ8RIYRUjsFFiDTaG2nriGWEmAtCDcu6ju+HPtJC/lZXpBEnzZ8QIYRUlk2KFOr/uvZxqGzHyja01jtj6JCGNyHWwi7/WXd05I3zYmQiu4Q/H0IIqTyHFCnUJ6rPH+V5fcla7ozlBw04WlnVx9fbjYB0nzFCsR7jT4cQQnqH04oU6m1k28Pn9Zp2KlpuYENWCfUf9XYjSAt5hqYl/bVT0pIQQkhlwXT1nrJNkm1mhDD/LNtTsrXLtppsA2CAyna6a5uOWu+QwYP7LwuhRqunUK2OvHmirjWNXN786RBCSGVBQY37lbiu43p9LdkgTuNka5JtR9k2lm1F2f4asK+n1X6eT0PHwKFs6JCGb5VVPaMuLOlmY3XteOl8dgf+fAghpPIs6rKCx8X87OKyjZbtUtk+U/uAWM+fls5xHMrQlhvUb0zab4b2vDldM6nJSP50CCGkd0Cqx59dYn2gbOvKNky25dS/a8i2oRLyfWSDhy+mvn8R3afET05b5wwd3P9mR6ilVf1imm+EDsts13QeO4g/G0II6V22FsU5kXnbTbKlKkHI8oP6tzlCjbbMgAErpvEGaG3JDNKb7m7amz8XQgipDrCeW2W7Q7b3ZPu1SLH+XLZ5U9Mpgwds4BZqaVXfmUprOm9er5Ee9Cr+TAghJDmMK8GyPj1F/TCH41A2S6wH9t8oVSJtZf/BhCaEEFJ7HFyCUL+Xpo6QVvTdabWqJ4/bcUENkX6dPwdCCEkeZ5Yg1KlyupLCvI9bqNEGDOi7UCqs6bx5ZYTj2BushkUIIclkWglC/Z80dcSyA/uv4xXq5Yf0v7jmRTpnjIqypuFkxp8CIYQkk7VKEOr709QRAweKuYcOHvCzV6yXG7hkzRYegZUcWQ0rb27OnwEhhCQXZCz7tEihfiJtnTFscMMbPazqwQ3n1er36cwbJ9VCrPTyDQ1LLTtgscH8ORJCiD8HFSnU01Mn1EMarvQKNYp1DBy4YM3FjXfmsmuFx0ob9yblXIcO6r+n7PuV+FMkhBB/kLXsQ1Gc1/dsaeoIpA/1CnVBrIc03F571rT5QYiH94xMJjNnIqzpwQMmLzuoYUP+DAkhJJw1ixDqr2WbL02dsMwSSyzqJ9QFsV6633o1JNJmqPOYZayTDJFumLD8oIZD+PMjhBA9Lo8p1MgBnroaxcMGNzzuK9SDGu6thfNvHTNqMSnU34cU2tg3Cee57OClNhs6uAG10WfnT48QQvTYvgirekDaOkFaePsFWdXLDW5YK/HWtGXcFuw8Zr6SiJmLhoYhKCk6dHC/5fizI4QQfVDO8veYQr186izqQQM2D5z+HjxgZpItwPbm7LDwspWZlat9jv37959HivTDyw/svxV/coQQEp9HYgr1qmnrAFh7QUJti3W/bZN67h1585lAkc6Z+UTMWAxueG/o4P5n8adGCCHFcURMoV43jZ0wdEjDm8FC3ZDInNgdeaM1JF76sUT06+CGm2TfPsafGSGEFE9TTKHeKI2dAIsvzKoeNqh/S9LOuT1vfpfkKW8p0Meh7/gTI4SQ0lg7plCncp1xuYENO4ZOfw8Z8MvgwQv1TZA1fV5wYhNzUtVFemA/q+CMN6j/2vyJEUJIaQyIKdQ7pLET+vfvv3CoRV1oDUYiLOmWxnWDRbrp7aqL9KCGLexUrAP25s+LEEJKB1nKvokh1I1p7QispUaIdSJCnTrzxmuBa9MTjRFV7cMBSw6vpRh0QgipFd6NIdRNae0EaTEfFmVVDx00YLuqWtOWuVtImtBLqtx/Kw0d3PCnbF+IlKWaJYSQajM9hlDvktZOWH5gww6RQl1FD/Cp442GsJjpavbdcksuuYjTR0OGLL4Yf1KEEFJeHosh1LultROWHdh/neh16sJadVWqPkmL+dJgL2/z6Gr12+DBSw4YOnjAO/ZApv+B/DkRQkj5uTOGUE9JayfAoQwlLqOEevnBDRN7+9xa8+Z6IVPeM6vYZ8g69oUS6av4UyKEkMpwdQyhTnXlIyk6T0ROfw9puL83z6l9wvYLdE40/xsk1O3NmaqEQKn83S+pJYE/l19kkQX4UyKEkMpwXgyhPirVQq2SdES2pRdZsrfOqSNvHB4SM/1clbpqdtlXn3Wt3fdv4s+IEEIqx4kxhPrQdFvU/bbVEeqhgwd09o41bSwVloGstcVcpbf7aPmGhqWWHzLgWZeD3bX8CRFCSGU5OIZQt6e5I/6fvesAk5s42+cKGGMb+9reStqV9rorprdgQujdcPatjY3b3dlgg3G7o5pueiCBkAok9JoQCCSEUEJNIQQMCfDTAgmBEGrAGBujf96RdKfVjqSRVru3653vefRg7va00mg073ztfWOx2LCWlLyRA6wL0lPd05X+qwef92X95Em/lpGzFyFvYcKECcs/HgQA6nmb+2C0aMqDPF51vilFu7vSs73asVbMOrKgbVD18bhExubZDJBW5bPF6yNMmDBh+bdlAYD64M19MJo1+TweoG5S42159qY/LJZ2LKO6W3nD0ab2onh1hAkTJqwwdkIAoN5+swdqVergzFM/kUdv+nYfPu8BhRoP5KRZMqD1ibrtxKsjTJgwYYWxRQGAum5zH4yGRKyFj/gE4e+YEvX3o0DMK+Td09U+vVBjgfB+iyb/X9a9a8qD4rURJkyYsMJZBydIv0eOweUwIM2a/BKfVy1fmgdv+lkPcpN3p0yZUpBn0KBUa02a/Bajj/z9YpL8FCZMmLBysHmcQP1cuQwIAJgz/P3vKL+3p7P9dE9vuiN9VCHuP5msqiWA/C9mbj4lnSBeGWHChAkrrB3LCdS/LhugTsR35Q1/q2osEcV3+oluEBB/qhD3jvshG5D3XDYmfycfGSpeGWHChAkrrM3iBOpry2lQ3DzK7Hyt1B2JN92VvssLqFd1tB+W73tuTMaamzX5P273inC4eF2ECRMmrPB2DCdQn1dWQK3JVxcq/L2qMz3XC6S7u9LP5Pt+oQrmRfbSpEorxasiTJgwYf1jMziBenE5DUqTppzIG/4G9WiO3vR679z09B3zCtKJ2OTmlPw/j6K5teI1ESZMmLDi96iPLqdBMTxMXqCW7w4N0p3pSzy96c703fm8T998vCZ/VlVVNVy8JsKECRNW/EC9T7kNDAHgV7iAOiW/H+b8fj3TNDfdOW3v/IF03W7kHr/yurfGpDxdvCLChAkT1r82mxOody23gSFe9en8XnVwqceervTbPrnpvBGLNCelvXxpUjV5oXg9hAkTJqz/bS4nUJcdZSSqnInH+TVn+PuFQCDdMX2mNwNZ+queuVPzUmXNI+dJ7udm8WoIEyZMWHHYAk6gbi3HwXEqRnl6oIk4V5j6xAXpGr+Qd8/C9HX5uJ9GTTqIA6T/Kl4LYcKECSseW8gJ1KlyHJxmVb4uQFHZjVzetE/PdL4qvXk8aZqXjsUqxWshrMA2uFGNzxKFi8KEsW0JJ1DL5QnUyqH8QO3fU81TQNbd2R552LkxKR/BR+ASP1i8EsIK+o5p0niyyf2gRZNPqigTPQFhwoIajx71BnLUlun4DPJi68ryRrW4a3X8kgMP3AIylT583uuWzG2ringhnMEVuteUpeJ1EFZIA7MfQJpscnvEaAgT5m6rOID6C3KMKdcBatLky7i96pR8v9t5urvaL/YNeXem74j02tX40Zxh+8fEqyCsYO9UokZtTilP0g1iUt5fjIgwYd52GgdQf06OUeU6QPWKMjZAnvprlk718bOPHNPTlf7CD6iXd7VFVrTXmJKO5LzmVxRl5LbiVRCWb2tIxieRzezF1tyrT9RtJ0ZFmDB/O58DqD8hR1kXeUA5irv6mxFCJt70Q77edFf6qkKDNA7IWorXQFh+N7u1rWRDeKWtnuP15nh8jBgZYcL47NscQP1x2QN1oOpv6R77367smH4IB0h/tmreYdtEs6ngq+6m16pKS8QrICxPNrhJlY4hAH2N6NEXJiw3+wEHUH9IjmHlPEhNSekAXvDDUTN8eHWvN92ZftO30rsrfU001ynvH2BD8X0x/YVFbS2JylhLSj63OSW/zeiMEEVjwoSFsOs5gPojcmxd7gPVpMlv8YJgvGoMlQU9d9m8b3N40xuWdk6NFXQzocn/J6a+sMjejcrKbRCdIfPqPuIxf8FqXUSLoBgpYcLC2R0cQP0pObYp94FqUuVzeIFQqhnzx/QhU/a4YGWH7l/p3b4612tr1OQdgxS8perqZDH1heVqqhpL4L0gQPyeB7/A30WxojBhudl9FaLqm8vq43HJT22q16OuGbNxxqH7fOkH1MSb3jRlypScSB5QlU6uaxO/Ny1ITYTlZAPAIkYA+F4ynzb4kACdST4/RAyZMGG52UMVoo+a36tOKX/hAcO66jH6Yfvsql+wshNg7JGbnnFlLtfTnKxNksXwE/7iMfk68RSFhTHQezalpBPIfHuDI7XyeUtKbhejJkxYNPZ0BR8zWY0YKsqkdDkPIKpSrT6pJaWfsmimvnrJ7AxwPqWPz/u/YCsLey3g5CYL4ocB8tK/F09QWPA5Hz8YPPbQXedMrdzN4hIQJkxYeHuOA6g3kSMuhsogbOAFRnjVsw7fV79wVZ9XDeDG0UM5vdPH5OLdBOntpuQS8bgknqAwHquvqNiiSY23EXB+OMgca9akM8TolckEIf8ZJEaiYPZKBZ8oR0IMlWHNKeUZvwWrFQVltZX67tuP0885aZ4B0MfN1FcsmK4vnXOUfuqimR/ndA2avDbQApqo2008OWG+G1GqwS59H1XageZXSn6qMRlrFiNYJlZTU7M11FTESBTEBpDj7QohczkgEEgm451cAh1JSU8pdfrxs46gYL36hGP1rvQh+pyp++tnLDl2UXiQVm4XXo6wqCNFQUh9Mpj4UsqPxAiWoTWpyrR6WS5L/WMzolAo25IcH3ACddNmO+ajR49ISVJ9kM/zLGCt9Qk9VjVabztwLxr+PnfZfH3aQVP0Yw7/1sOFAukmTfmVWFGEudhQ9D43a/JfwwB0iyb/ozkp7SWGsWyBWj6sMSEdWK472wKqyaDl6jNOoG7djId9UIuqzAajEj9gys9ztmnp++6xvX7+8gX6mhUd+hH77q7vMrF1WpiLbEnJpwcDafktsZoIy15fpQlgCAPQhgJoo2DsplgsNkyMZhkbyBvIRLi2LO89FquEukwySb3dfFsdOb7iBOpxm/O4I5wdZM4REFzEs6Bpckyf0KSBIlS/9JRF+uHf2k0fPXJ4YKBuUeXjAy6kmyAlKFYTYX3rqnQQmRe/DQvORi5a+RJc8mI0hcEGo+0ElIjlePOUxF5V9i3AV2mcII1jwuY85qlUTTUYu3hDeZQykUGVyCB80BN11fr8tgP1K05fvG6vnSZ8Hq8eEyg/Ta5pStAFtVGV9xTLiDBU+pvCGH/IBaCNULfyYEtKHidGVZgdrF4mnuWr5XjvtFeXeFAF+KqxAYB64mY/51Lyw9Bm5v18QzJ+OU/1d23ltnr7wXvr5yyds7opGX+yIRE/nXuhDaCF3RvyVuNtYgUpb2uS5bomVbnQjzksQEHiGjGqwrIXTVVegQlSli+ZKp9KQOOSAnzVDsKj7rNGNT7R8EbjXJsS6Dg3JKUvUTTmqfccr9H32XW7D46YsktSrq16l4D3CXznr9iSbBxeCuRJa/JxYvUoX4PHi1oGMm/WRQPQ8jtCTEOYq0mSNLpcd3KUaEBTfleAr9ojAFCXRciLVrJq8gc8n+085JBhE5tT6xHabvWp/m5I1r2kSTXjzTk9g8/D9+/XdtCDniJWjvI0TZMamjT5x1GAsw2k70SKR4yuMJ+FSn6NhvLKbLIgbEWA+vVGSco3G9j+AYC6pTw2SdJKY5HyL5j59mmLH0HrFVqwWur9KrDjnzSo8VN5RTFonYLolRbmY5QpT5Mu5xWL4dzw/ZdsWE8SoyuMD6jRQkAnj3xu+d27/AXZIc/L89ccGQCoG8ti4VOqNdObeNnrc91dM04Eh/dpx8+iVd0Ib/swN/2PgOk9Rnha2cNzs8BZUd53bumnYrUoLzP1n6+I0oM2yUv+UgAHQdhmtWhqdd8yG+s/LEOgXkcW9tvy/DUzAwC1Wj5jrzxheBZSB+v3nZ3bD+npSn8F/u6Lurt0y6turfcMI35lCWigj9UDpHcI5v0o3xErhbeh37c5Ht8s1N+MbgPlLLLx+2f0IC2tErNFWPBJmahRy7VIhob9NfnzPH9NBydIQ5SjrlzGHq1x1ryTJGmrLG+6M/19Swnr7BPn6CsXTNfrE3W0Z9qvsAwtYB4eyyDy+/8EyCE+IFYJjnUkKR0ANrmSvw9NnpsfgFb+0pCItYiZIiwXz/IlS99UVavLRmqxSZVvwX0rysht8/g1J3IC9ZfkqCyzjdKr5rz7uf3nq7ra93FqSq9Z2aFP3W9PvRa5ao4qWnKawcwNgiY/HQCkfylWB18b0KxJq+uT8V1Kew2UjiLz8f6oARprKplHJ1cE5LoXJow1SdfYyCNuKJv7VuXlJg3kDnn8mpM5gfoTcgwvsw3ieda8k2PVl1k/71k44xU7SEOu8ozFs/Vzl83Td5rQrMu1lZ5eNYgnXOb5GQFA+mWxMnA9wyubUtIJpXr9qbo6GfUHkQO0wTD2JCrFxSwRFom1JGKTMyZYsjZZJkC9nwHU0sw8fs05nED9drntukFja825hmRcb0hIU1d0tB15ztK5ek9XpkeNXPWFKzv1rvShlNu7SZU8OZKzoidJ+fAgcoJQmBMrgy9I/xlRqVK8dqo1npIvJo7J+ugBWn6fHHPEDBEW/Utny8uQF/CP5XDPmhZTTNq+6/P4NZdwAnVZenBkrr3Q61XXVunpQ7+pX9KzUHeGvnFAb/r8FQv0b+4ySY9Xj/HwqrM7GPgXZHljMjlqlFgRfJ/bowWo78iLNSXie+cjD22Guu8DP4WYIcLy9OL1hb/NatzFZbLgfJ3nBedqTqB+oSyjOVr8YIsGtCERp2C9YNpB+qUnL8oCanjVhredfn9cY/JNFJYxPZqkcmzGwmzQPHKEu5V/g07U55LLOtdo8rW/YzIaltRYNKl1Tag7yEuYW1PeKFc1QmEFtN42LZuCSzn0+iF8Z5Jv5KuH+aecQP1s2c69RPxtPIOxxEMGA5lKAHjxrCOoZCXAOcOrPm6mvnrJ7J123q61VSafZVN89vVQo9KW3xuSur2uEyC+OVQ2hwa6pHQANrUYq1LTsrfokvPjRUuXF1jjXlg575QZuZZ/kl8N2ayBWlW+YzIFLc/TV9zBCdR/Kte5pyl13chRI5Q9tiGhKwSAQW6yYv402kNtB2sC1H+x/o587gyW9CTmsnMj5tfORYktVGmBR8TpDChskX8OLMuIW0q+pHcjlIw1l9Lmore7IPpc9C9KaSyEbT7e5aOMyfjdzdpLMBmqoCGbp6/4FSdQP12u827+0QecVq/U0YIyi7dbqq3UxzWqFKRR7W2BdXdneo/MOavc7gxBWr9DqyGfEpZ8GCIqxFv8Cev6ID24ub8Hbgbt9iZN+VUfTas8txSuGwQsTZp0QX48aOUjMDoKxBDWL9aSktvZE9OfN7lUrUGVv2EC9bo8fcVDAqjdbfXSOaMuPXnh+v322IFKVVoFYgiD15kFY2csma2vWbGAeNMzzmZ7e33tNeiFtW08z/NnHTOY0chnLwUg2c+Lym+jglf5YbmuB6Bl7fOk5emlsfmWZqLeIC9etCr9IM+8C8KEeZsp+fcFIzT4BX63Od5zfW1tFS0oQ97Nv5AojD0lgNrdiId873nL5usnHjtVr0/ECRjEMxSxQBv6jR3Ho4/6WZ9o0JXOCJAfA5ldCQvV5+S4u3exN2gk1xMP8q2yjK6ZHAM2T/qqor/meHwMuc7L8hTmfrVRkw4SKCGsOHbRmvw9l7aVWzfbRUlT3jQ3JNfk4fTPcgL140Xx/FVlX3uON78g3X6wlXu+YGWH/o2dJmR41Xat6fGN6i/8vCh7twLC2Z6LryMfbef0rk/UbWfOh7VluAQMRKi/5EBak2bYvf9ovWh5hUAGYUVlzupvxws7b3O8ZzBZmfnN9XmQ+3yplIAarU1kPNKF+K6erunPW8xjCG3PPeoAXaqtwjzLmntoxUrUVa/wAOoLTCnKo8xnejPvwtuoynvS+Z2U909JUr3pQX1a4UJDmvG3RmfE0M3i3U/EWrA5ceRjHyzqiFg8LuWNWUyTf+kl7iJMWL8ZgMpr8hbK2yroPduLZVRpZcSn/0cpATVEWsgC9deKPFc3E3A+00lmQr3qHYlXXbUtzVGzC7+kY5jXnVJ+RBdXJbY9BeqU/D6zdSspH5EVRUjJp1v0uRY/M5ireKIPZIPwbfLPQaW/WY0f4tRbdqNiLZprTslzrHaxqIvFEJERaCCsqA1MXR6N/fdudh61rfUk4nAnPK3/cAL1w0Xz/FPyxqaU9LN8nX/5/KkJFpnJ+csX6IuPOYJ6z41JyW3+rWdtFi1BhQqqjiWNZ7VtudE6OkkweFSOUA2NudKUqtu99Deq8kKWsEmxbsopP7cmX5oPL5pu+BKVMYECwore0BtYTpqqqGbNyIlGRyEJcoxPOIG6aOQUrTqFvHnTXe23sShCcVy0qkvfa6cJes2YUa5eNQp7GED9tnXN2Ew6/wZ5Z9a1gKgic27Hv8k5RvdhnErfkzaK8Bw0mJ8Vq4oeohjo0MgDSP8NKRCx+gsrsRdYecJrYm9OLQpWXjIPGxF4JOs5gfq+YhkPKP6Y/cWnRX3uVfPbdnIDaRznLZ+vd04/mDKUNXoKb0hr7JELE8Bfswt9mJ7hSyZRiUs0pS+/2aQpJ3K9G6q8HGHi0o+cSZczN+KJ+N7Fdq3QLIeIRvQALW80N1xChlJYSe60l/lw2z6xWd1vpijJBxGdNsEJ0jjuKrLxoB4qFshIgbor/R8voKZedXeXfug3d9XjNZWei2y9UttqjwBBNYtsLk610eA+U+GRP7Z7kyBO4bl+i5LUySdegu/3H9k86fHOYri+Jlmu6414afF98iOiIb8oZCiFlbSpaizBMdHP3YwiCA6Gq0gqn5sDAPVPi2k8iGd6nAl2kZF9dHelZ/uBNJWzXNWlH3vkfjOlmsp/+/S2vk0XdVWaYLVXked4B8PjZjxv6fsZeWlV/obf9aPADGFhfEepznMAIIuBsFi06BtT0pGg5mxRldmIlNjrRyKu6F4mVnlhm4Whd9p3wsfjYzaLe9XkkxyLVhSL8aQAQF1UFJUolrLGIkJv+n9+QI3j/GXz6eZAqq08y2/+AWAhEGGC823QkrbYxjyiBRc7w5+atu1Ijs3c6/nM3RfABoDAxaX1sl+JXYw+aOUZE0T/TNuuXDYUuRGXKM/kidhImLD+MStX6bMz3Sy0q1G96xR/r8hdkGTXAEB9VtGNibmoo0c5Am/6Rh6QxrF68by6vg2U8qzP/Put5XUhb0wW/Ht8NmTfY5zjOV8gscBdVfYtxfmN9AC5z+ddNJQ/gzZ7vwC0Kq+w18OQa3yACqC4tNflVNGtyueIVV3YZmnkhfl1OYTA0ZLBWMBzDX/vHQCoi07/2x4ezqVVZ9ncdpkXpAmgfzvjuXClYNi0oNn349bS4826Rzz0JTwymEVsQ1B34U5kxFdEFy1AK4eCttXxvr2CjVde2q6S8v5iNRe2+QK1Js3geRFKTZ+WYYPIzv49B/FBrhrR+wcA6iOL8NmPt43F9aG96c703XwgPeP1tra2QQyAvTrXBblJk3/skeu+xNUTNVnLSrV40oiKyS963PuvCxqlScT3Jp7tLU6ZUTP3/0kectF/wjwWK7mwzd0GkxfoYw7S+tdK3qvW5J9n3VsiNjmHUx4aAKi3L86NmhEuNduRArOVdXdMP5DXm+7pnN7mcR0v8yzMIMNg/O2VPov5yezvjDfa0iBRMrUNRGEaCjZRCNeQlHbGhgBtZI2asgdazFBdbrZADs7hewb5qUhVFI5VDddyJouIxmAXkzfmgWHswYrNgDVOmDDOMFWmko77i8HW8y2d+5Q6skOphlBDSDuKE6TRaz2iGMeEAMn8XMQZerrS7/F6017nsQrGfObf0wyQ/o1/7lKa7/w72rerKetptKi2tirofeNvKPiq0hJsFOC5mpzyfyP//hfP5hdeJgGbd8ln/04LraCLrcl3IQIAqlvQqYKbvz4Z34UA3ThsLADwaFsziUFe9iEuOqFQUTlL+Maxuf8U95cPkG5SlQvFyi2srAwi7Nai5VuFm4xPKtX7bFCqNcaO/685nDLNCdR/K9YxcZLBmCIUXLaqa/pUbm96QdqXEQyFR0FUjrBx5Jmz8GAZAP+cseDH27jAKFmbxGcJMF9BK88ZcrHFdDSllL8UZN1Q5evceBiwieJdVwIWjZ0mVm1h5elVc3gm5i75f6XMlYuCFkbryg4hT3csJ1DfWSpjAr1fnr9ZMWu/rYk3/RlnAdntvNfixqZlCG7EmvsiAZl5UI/5irB2BisVgNa814Wsa0CFNGhnae5ck39vtW3110HJQDT5PlyvUUUtb/JNEeSZx5vyh1NvmbWhkpbA4yXX/GHk42H0XwsTVp6GFyBAAcejJQzUVzPoKu8JeboOTqA+v5jHpElTltqeLURGfPN+3V3tP+bypLvS+smd6eZcN1MIJVeYeWR0IQSYqzdlgrTyQ2eYHxtPtO+R7zgL4fV+BWUy/ugzRnEfZGedhVLkGn/n703nT3AFeXf0s7urUkkTTDnNr6PNR8ufNyelvcRKLUx41c6qaM8wpLSkFO8R4UumByJJ9SFOdzwnUM8s5jExUh99Eoh+/ahLZh44ghekTztu5m2h5qKDUtLq50d7VpAFvjEhHWjzAq+yF5dRIEzJD+el0IkfmD8Aax42SwBliIiwxsOkNt3AI+FYkVuBmtf60OM6Vpr8c/KRoSAyycMYPY/Ug1ihhQmjL6J0RqAXqARfHlqI473xGGDKIPJUAS/lBOpvFP2zt4lXIK/oxeRFAPh6ztz0FycvmRu4UAupCGcxFkACBVwBq4LftcLefb3S8odk4T/Pq6UprwctHpP/iBA/Ws2wSfKNdiVik8kG5b98+Vu+nHtwLzqTgtcGol9hPG1g/nHEYf/7GZc0UKzWwsrW0FISpPiDvESPlNo9AoDs3qPTYyOL5+EmUxeP2s5KTqAu+j5P9L86gZF5wx3pvbi8aVCFrlhwBf6meuRI9OAP5bkOVGMzns3X5LgG1dEBPTGacrB4zXvVlArvNT+G8TQLMYcGei6p+DeDiFBEvoFLKse6hbGhXNak1jX1big86gtCjZsq79c7DmRTA353pOiSyYotxWotrLy9agK+ARmBDi+9yEF2DpTeiyzX0RCkqhzKearTOIFaLvYxQU+vYxH+M+tzq7rSa3krvdcsnatRoN522wkVnHSt2CSxgDrMQg/PyymLWYDCr/+R610LAQy0heVC3QlVqSAbiyg5rrFh8iSRMbjyB9miceMj4ur+EmH0xqR8BPLdYJszW99+A4Y1u+qWMGHlC9SqtDigt/B1qWlXwztzWWT/5afK5LALOED6o6BeVP+NS2aREAqs7L9f0dm+My9In3nC7NPNP+PWAbYkJvnnnvIeq3+Xglaibjvn5iOPHvMrtJdak6Ymk6NGRfEsDJAO0rIkrfQ7Z01NzdY8HRvw4i0ZVJf3ZA7jnbo7orF8h1bap+R/0sI6Vb4uh64MYcI2T8PLTF6QdQG9iItL6R7Jiz/Xo7r0pACnupIDqP9QKuPSqEo7Ocbi9/bf93S1v8QD0qs60nalJgA1V3GTpa7EAdBvgjoSoV6W7jK8MDM69K/oc8zy5wQ8HkL1OKQU80FfidawgNf0odf5UCiJSAXA1+964bV6jPvr9uK83vOnaqoj65fW5P+DcEdTSlpVKhtcYcL6C8iuCviCbUCorGTuL1GjengmxwQ41bUcQH19aT175Vf28agdPZqGU89btuB4Xm96Zee05db5Ro+uGKGq1TUc3vx4f05n+comVZlmRH4MNj0nhWaTKp9tgnRE6kzyRgLKT2IzSs59WL5lX0EzGvQaQUvq7h1LJ/T1yEvf9vjqAdiYeanouVWk47y5edHKeoTSyRwA05+gBBUmjGuxVqUJIUJW15TSPbqRWJD7eDzAaW7jAOqSYVFqTtTthsIn+3jUVY85Dr87f8WC1zlbsj5eOueI3vCvXFMzDmFojs3hj10W8Y9BnckItf7SHvkxPicvM0H61yHDri+T89xr9FrLp8N7LCS5j0kL+lWgkLcL7SvlGbeNqRvfOQya306lK0ZfNtO7rR89ekTolisjrL3Qa4xp3QhC8apyKCraEW3Af7FpAr0q1iqeynlhwjZLC8MqlExW1ZYOUPdJPOZAk/orDqA+uujHgnhxIH2xezhmdEFPJWIPH3/MEYvOPWkenzfdlc6QDkXlLoDAc64xJEhtlb/LmddshHHvAYiQRf9apGxMAF/Lk9uG99iUUn6EECsqihFl6c9nEKb/GPUhvl65przrNf4UKL3TWpf4bC5mI5cMpjiw2qHS3kwLMEhr5D+TZ7aaRwinORnvND7PsXHRlI9QBIuoB9nUHeLVWihM2GZlzar0g8AcvJqylPf84JTOdxjR5/46PBZyXsrLhzmAemKxPmODJrOvP5Z6OZo0HlEF8/91JVatzz5yP/2ClR0Gy5hXbrpr+jsMzzcNUQnPZ2Hr4WaFsRk2lMX5bC8SRJ4aEpCNanwWdKYRAoYXBg+soshynxAkcRK8hJH8xDuV0SKlyd+zNjAMG+T3jqOtze/a0SpF0xZa/GAUopoFiX+jG6mU/DCYAI2fZ0dFXGwwoiU5htI/xnVgk2e2eIlct7DiNni5YVoaDJ3bwC/Iv/mBUjkUzFD9FjFQlX0974cv5PlHH5BeR46iy903adJMiJE4PKenbF5wL/uXUletbz+uUT9jyWz9tOOP8VPIOjH7u1CcJI/zfBYujF0eG4wjDMKdeKfNw/6uPYRdUpviECANGlXHM73A9h7e4Lsx8OpJh3a0rYfZaaimN0LQ8i32qnva745COwBkSDKkwKQ2nOsS8ugolhSIIKwoDfq9VPFHk1YHX0CUJ0PIz03jBWrIAvbj0Azyokwl997FcY4XfID6r0U0FQYAgKFqxFjIzrJ/UJKk0RZdJbxqubZK75h2sL5mRUdQGcuB0Cj2UuRy45hH36zr35h83JBXNMO38+zSigCikgFpTb4zRMj7t31/r/RYmuJIA1CFLwKSVBpTk08CoJsh6SvhYcOLpvKT7qHuf9m9X9oFkpT2whwxw8v/sjGSvUw9ZrJhMiMVUdiQ6AoBXchnUvLFpawCKGwztcZYrNJoZfHeabPCliEIH57i2jkn6raj+WCDrrN/gMtrQTC4i/3sdR+gvrUonr8an0Xu9VW2GpG0gBlRkWK3tdYn9NZ6Ra+tGq0fsveu+sU9Xa7h71Vd6X2zNompmmpTjWuIhzf5dpDiRORbe3ul43EpK/LDkf8smsiGKp8T4v16xHp/7O1stF1Nk39CBT1yozj9CBsB5P+pop69VgX9zaq8It8bIStiUoD+918isiYQQljRGKVmNHoUn+NeSCortwnDCsXDxgTJwhB9y9F5Mi46uhlsWN7hb/QGv+cD1Of2KxCkpBPcoiLwhrxAjWzs2onXoQOs65U6VBfrK+ZP089eOpdV6f0a8xlr8o4o2nMHqvjRQYuYrA0H9KBpiNUWFQlSI9Hf5sY57wcsjaq8p5OqM3KlKrfedUTmVKmjISntnO+CLWwgC0jx+gdEDBB2F0ghrEhCbeSFI54kL18u2WE/G3zixw/xO6/FQuW1kOdtx87J+gSREo/TjCDHpz5A3S8KY2hb8SIPMYvlPElIOtsPOkGTY7TyG2BdM2Zb/ZBv7qpfuKoz25vuTM9lAnFSPhwbIo+IzVr3FIp8Kvtv4odAAtLZldAf8ygHG+jF/OWWZ6Vh5nyQuISnS33E6Gf3rkHIYa3qKTj9K/rlBU2psOIAa3ARy18hf+3vebpXR3sAnG8+vA+olTf64f7X8dIZVrhTYKIVbYMPUB9T0Psy8v5/9q4hYAOg3U5qa9vqvGXzP9598lhdqq3UW8nfqVKtPr5RpcCMwrLe3HRn+jn3DZF8HECV9TuExX0oMV3HDsQb9jwrwr6l9P6hmj0UB3aRALQLyL0K7W/0PEe66USqQ1PeLayIirKe8osn4rsKtBDW32D9Ek+O2KlVzAlwv+EFarooF7CHFcQPmW0cyg1e9+KhU61V+LdmHViQCAHaclLyrRyLPU+BXMWqzumXXNTdqU8/eIoeqxqttxCP2ioqWzDt4IxWrVVd7ft4AZJJlsH63amerUHJWDPr78BylsHvTRZxkG6U0Ks3FFXVxQy6EYSSX2jS5EUoSowkTQBSFURR+kWWVP55lGInwoQFBy0zf8ni780Mf8s/CShP998Kn97F3hx1AfPUjWp8omNBubbC7Ml1vxepw+V04ziAuiGvnlll5TYG4Yc/zzIWTp5z9sydqlFRjRPn6CsWTOvNUeO/Uk2lvscO43XibeunLpoJsH7XJxqDnOYPGL9CZe//PBbHf7iDtPxOhvhGPC6V0jvH+y4VuwcdQEnszqi8bOTGw1TJR6Tq9aTfOilMWD49zOeM1g73lwm5xsD8wy4eUd/3xhttofJ7CnOvmb2jaDsxNyzPeLVzuJxuRx+QRh9w3niLDZ3gTJ7rXMLdlnV3pc8AUJ9CgBhsZHsSYEb42zyPLseq9IXpQ/U1KxboxPOe67MR/CEKn7KvPd7p45HdmO2B1zVl8Xpzbj6KxdzYx1AYl6EIpkqLwX8ASlQUgG4mXvbNUeWyQVxjtej1w338ppQ6C4RtRmaR8btVzRqh1fCi7yxDSNlOsJBvMXj6cjukCXvvX5WP97wXNnnDXj5A/WRe7iMpHWAoR3ETY5we4PQDiZf8gZV/RuHYYfvsptdWbqsbrVoJcH/re+44Xr+4u8s3L0y5nFXlQsbm8FFv71+amXHPmjzX6WGCqrL0NsXKmR4A8FdUwbN4qxFJQCcFNpZgY0PEweG5foqxRirHB2TuopSpyJGjclxTrjfbsB6n6YQChOTBpY6K92g87PikZlX5jtXzX+BowVNoIxPoIazQnvULZqh3sVeYnNujTklHer5kSrXm8G6n5PH2hmQVpGjy93o3DVSmT97ksbicxTjnwT5AfW2UN2CILPSxT3Hu/gOBGQHp8+3V3PCojz/mCB3V341JyeJB1xtVSZ935AG7csypmwBOGT+Lx8d4hXVRD2Ft2uhzMRbiLCUn/D7fm7tczczRDux7h7LFQqhMp5H6Geh1rl42sJTyF5vi1BPoa6apBPJfz3C5bb67GbS0DRGMut2Rm7X3VkfslX4NxrqoIk64ZnLO86yxKbCH/VsnlaswYfne8T/h9lJ7ajizw62HeYdua5MOnvAT8xYxUJWLnNfnVHQi9/47L7YmxmnbfYD65OiiAdLKoAV9uOcg39HZecgwZ9sVwt/nL1+gf2PHCdSTtrxq9FRrUmwGx3y63cnHDQ/bZ97cYsw35USWhwfP0/CmpJ395liBbSDmFDxWgBwWcJNMhoIRLcq0A6kmf453yjNUTjxPbLbsm0wjVSW3Oz46NIc2wwrGu35VL0tZMt5ZVVU1nAp9EC/clTgnnHf99wgZzYzonyrt5KbElufjbwElcoUJy8mzXstqsYJ3EAQssCv3DH2D2tTmxYKlKY/39IFjsV+bvTh5a+oiAuD4kwU+QD0j5+tW5f288ucehS8/DPpdxJs+jkFkol+4skM/dup+erymMnM81Phb/uOOsKrS44hsfMTilrbCuQiLO6U27aIh8Cyt5wVClf56T3AdoOlsVqUl5J4etF3jJoApvN8KW686rrXv+Ug/dSPTwTxD6D/DozUB2qALjTeiPc2s9B+HfCnCyV45VTPyMMD3fUzJF9vy/z92i1ggWoY6gozq+xwOc6wiNYPPXD4PAFrw3nJNOqrYoz3CSt8G9/biavJ9Dg/pDt4Ji7yad5itqtbuYaDYJB83Q3a587O9Tfl4BpinA/b1nuQD1HuE9wriE8PwrJsL7GVhvMGejvQ6FjXo6Ytn0WPy2AY9KdU4QSDts0F6FOxofRsPAmpsfvgL/drLEALPmDu2/y/ku2EojmVXHtPqZhcPH5zk5P42UmlNtgc5gJ6XLPIetQYb7UVnIcO0m+CdU/lIVfoBJC5RRAo+cGsTDlIVP1B3vjeW2lpO16ZKV+Rto44Nryb/ocAh8XfArY9NlYAUYfmyoeQlfsvaWVeY+TNUGnNOUl/1IqqSo8mf2xaiF/PykjKYnJDvzd44jBrlVZSC/KLjT06viLg1i0p/Qq83/OJwdZgx6ulqv9xLFQt90/vtsT3l/Ebouy9qovzFe+yVZ+ztbWxBEPkr9Kmaff0byGdep/SgtMcdog/KHWCSc4DDMpe2r8iNkqskpSk04pIxX+mcuB9AhTY5pnes1X2LcuyTDSlrA0VD5UhrOFjKaOW3wSD4qkEkorxBF35N/g9YBemB/0cY2qUAjPJ1p+RfwNvHuONZoYCSngP0sey/eTwsj7dZiX1fjuB2Xj6fpSnr+kSBPey3kQ5hROSECYvAE6U830Y7E15gurCAeIBvcl7CEzp0sEt9FbU+NYsvGIugh3fwG88QXWOs0vbxiyq85S0DkXBQ8MmhdzaMOhqsu7NtpBdI4zh/xQJ9ftuBVJsaxCcZYxLLGBPnPb1iSZmi4MclAnAVfVaG+tMJ1ibOi8TE2ERmVLMPjXruALAM1alMhTWjXoBsHtT4LHdAiDXbQvm/xCYw4/pBrZqSH3bMy9dBSGOGxAcGiBhNcNZTQEHLc64l4rtiA2F7Bm+B+yDDGzQKKAcEHTfcO23LK/BmM3DESpPvLnzhmXSbIE8pUaM7PE26HMUz2JX6hYz7AazfNBeSO/Di2vNxrvlc4kn4nZsWqDhzxxFT9rF6Lcl3PuABAIu87qs1pZxg+/jVHkD9D95FjsoSpuSnclkA0G4Tdox6Otsv8wPq0447Rj/zhDn6bpPH6om6amcb3ime0QxVmW2C9jWsa6dFVmZfdYUP/zgFUMg3GoveeDOcvhgSjlERn0CmFdXqjhw6xGxocWBTIr63WaiXReiDFipLMAPvjb19h25MaT7baIW0RZJu9UshuNgQGtJNSnuhzQodAX7vHa2it+WhzYruBxE1wLuO+8roVcd92zS/A61ribrdALohw+AF4cinnPhkXhZC1CRzMyX9VFSKl5ixeGapnBxZGDDZ+/v64A1YoTmymfgV5W9Gvs19R7yuwoeVzAopOlumLH3hKIzq6DJaruARuS7SLl5fL1DXJx6xffxGD6B+1u/6KMsWo10neE46s+c4EEibLGR+xykLZ+pnnzTn3r12nXikRX7ieN5uG6UPGzVlD9Y8N//2ZOt3iN5wRh4eRQja+Ld0BquCP2RY9AgnIY6zNQ+1DQjRVzBkO+n7akVEMiVSBxPw7rb3OBuhffnqsOFQbG4cRCh/o4Cfkuew0jrmhvBoZ581AfqHXLz0+YiG2CVHGzXpIBrm1+R5RgeI3I7IAIpG0cHB6v82NjY1KtjzQoD14sI5S/FGPyrhPIXFfx1VT7mwAgM1YzF7xSr8QOtBf1wjJVswQ4Bm/my9x/Uu4zxtloJQEAYtf29a6nYpCvNsB/GqsiYetZ0y814PoH7U4yuGAmD8yCk4OIg/y7UdpLsz/XseoD6VeNSnHn/MUdQzrKten13hL53A9PgIINHqW5faBmPDEkvQc5BFn/d9MXKvhueaq565WQz1GIuYwz5XyHd+FxtUJ+MeaCXtRWAWwQveGbSm2WskAOS49lzfY0Rh/Hp77TrjKNRiUWI6C52g7Q1ABggDxIPSBlO5yJTyQ7zH2EDa5W4ND1u5PVA1eIEpOymhjCZfVWj6VhRGipB4iQM1i/AeRReFVnYxSQU+8OmLfC9g2P/1XNuK3IE6W3HHVMPyviayKXL3qBV9nKpaqYlHPYD6F67hwCj6UAHSOQqZrJrX1sQD0hZQH3dc23D8nVxbdTNjXF9iRjRS8vtI57Aq2K3IBi220uSv+QDKYJezeMKhFhbag6aV9eyUg7On38onW61hNs/zGFbBIe7N5dltoJ6qpjyLvn3UFVg0tkHMCv9ztOk9w7xHTf5973uSqIwZ9RFeFec59Uq/Qe5zjRWFoPnxAPSfUM8qeDoyWZv0WgfyB9juaSRh/WyYiKHDLsghkZ0+vO1ChMlNvmUPTzCLiMHPm3nZcT/3RfKiqfJ+Lpuca/3v0XWRpcekZs0Kz//VA6ivY2wAOqLq08zVi6Rh7670C7xAfcrCGb05cKmqqp65oCbjk+znN2sQXmH1sVrMYthseFHXMubL8yEiN5nvG+1TNgg9GIVtb9k9e3jUFtA5PWlnqxkthtTku+xFWkHIMpAfDuJBUkazcMValEcdOVKDQtRf0MUFgN9EKozSxNKiO/l8FPjRFAABHBo1giiLptyL6njk0O3sgyic42lBpFGZfgoP0z55Tb6U3MMnhaQmLTIiH2GOPMkh5CG9lvPuNSX9FG0I6DXNTxhcamApH/m16rgsNmudpA7RjCU7xGavhkVVMYuUwKmw5Twmtmg/Nj/6mgdQf8cB/j+KKqcVxfj0dLav5gVpAugfM54by6t+PjvEn6l05ZQ1tTi/KziqnO3MeHi+zt9LkrSV7zlS0gluVLFkbP+paduOZIWXnZXtdvISOy1mRP23z/nR71qbiBDnRhRoMMA1TJsRNrooDgy7UUQxGzZwjlRTF0ekbr2fyE8+Dc/f3mteoD7sawQqFq8NBO8vinAikGX7klaYYtdMdv9RUvWZWtIb7F5eKEB15INRcVrBKNQJHvbOFC2wyB7sFfV4+ZqV2PYuQP+Gh0eNzQSqk1/3AOoLrHO11idviSYsFk0l7IpZ+23NC9IUqDvTWcV3YLFyWcznOAD9g2yBk94q4gFm1bFv4V0Gx3lmoZbBHZ6U9kKo3T3Cohzq1T+LKm+rhcrkfb/TKpRjKT6h5aoAC/Xz6L+t8OgeMPLJgcH2A85o3T9oHQABZjNaNzhfix5lPVSlDq/3Dq2c/QnWMNRTmF0GrxRM11tVpglYLFJDH2kUFcGMB/8nujOMIEwO6kI7WUmYClZn/ozuWF2oFRk2gNU7a24iGAuPkqWdjDAnqx2uWZO+7zaGE5q1DXVVVagyXusB1BSMJo9tuNPZdxwivfF5lCo93Z3tNwcB6hMXpGt4oiG2jZYVmZjFYiBz/t4vB+n03hHxsP16EAq2PDy8IaxCKrd0i8Fg1deehA1J1rup1LY6pSdpEZVL9CASDmkvCVpNWRqlWIZRqBeH4Mygflj6hiJs7ko8pMmfWW15/R4BJRvOqChU/dsv3TtVhBXDZKCeQF9eLuIiDzBA3YWckmPx4w8JqfKeQaQtGZ7v77MnZV1TgPH5jrMYx6jOZRYI/So7fIiWleweVoNRyiX03azpSl0VvNs/ugH1lkOGzJ3YqPXYWbzCSgK6SGyGslUd7bMCedNd6avcFyppLxc60GkoumKQPaxxPKdPEW72OP8U59yHh2uFThHqRm+/W1Elqp79Cvds/eeDMvLWmvyhs+XLaN/KJMnA84FXa6VSKPMVzc8qNyD/6iRLyTXt4dYnHUYvPoOaFAxrAJ4I51pu6bWYYuSws1OByFk7mer60QZR8hpGKijyg2woBR1psQO20S+6Ic9FDI+gQCcohSAlgLB7PObCxQfU2eQpQXbMBlmMcr09deBW7GYxZDnGdbxbpSUqll08al2Va6Hw9KwLUH8dqx79/vZjG7CQ58JidEbU84gA75fcIN2RXgdFLZ/x/x1jc/GxofDU1wlgkZ7YQc+r+BDhRb/NFiqHWcWBpnjMtRze48nGhqA2aQ+5YjNgr6inBWWadI9T1IWn8IuKZyRjzVTpi7wnOLCxQOEdogCIQtFwKr2GeCNy33RDAMlKsvjT1swsHW7lXhQ5ZX2XIULxfAgveh2iY8WaCgQJEWvDVWwhYaqNDVKfPGp6o/hWtHEVuZltFFcWKDfyMqo4nZW8rtemKvsGEWuwgeH9jIKvowN45D+HGlPfoqpMc/ManEUsfXk++Thn241xLvkWN6BOSrWPkI+8xALqrbfakn4mtDdNuZnjjXkA6ZuCeNPdnWnfVjmwgXlsNNYYhVvyrYxw9vNWH3XGYkc7INyrma3F2dC5NuQuHedN81TopiSp3pw/33OmGazUC114nTSfKeWZPDNKDcSzp+xoqrQE7yCtOqZeOv33WmeVOt2wUO9d/iWryJMzcrMe31PM6x82MdAdMOoG+hi+is6pisfHmJuth/K3PktHCUQsckPYJ2xrRshJcQ85pvpV1QJgg+54WUU5CCUhD+gmdMAKc1eYBWhuUpUm/anLdcunsia+0W7CDn0n4rWoOn7FCdIDBw7s/UzQ3DQII1yIQ3K2lR3TDwkC0jhWdbXvwBfVYKgSEa/C/N1j8AqdeUirDcXuecLDdes9thOkYC6yiE78ZEotLWvqyVLvJ5OFDCHVvnkkX+a4nw/J81ke4SMZYgqwTMVmgapPacqzyEfjfUMuH+8POiyc4U50czQlpQPMKmTUQPwJAE57pskGBh5oU0r5UbhcqHxL1JzpUZuhnEbTC3+36mOQgivKtVqVdkKFvVt0LkdnaplAwxIw7Ox75SgLAtiUkewGrzCZs4DIjzmLJZuJlw5tU5QS0YcMAiBr95BcNzBGcQzbK8eCl5J/kX1t8UOYVd8tKT1eMwba2f92AnXltiP07ccFC3nDA6QpBw8RilxtVUf6rUDedFf7nbznRsjV5b6eADA6i/iszZXV8oQ5w1I4M89xg+UlmupTA5ySl3i2pvKWP78yNpOacj2Lycvkup7N0C4/L9dnA7IgAC9lvdLk5+2tXLR4TVUuQv4ZRaQRrg/Inf4nxHv+cdBak37zXpO1SXTJ0Hmiyel8vkO5GK2noJzs0uVRgjZSQaxooLBinKw0RFaY6kN7i4wbDSLIVxzhubke3tjN2f3YdbtjM0BA+BwqyefSQkW/i3igdlpQt+tF3tI9fE4W+pTypdNzMZTCsjnNJzWn3h41YgRyrhudQE08NX1Ck8ZXXUslB6XVaAfK5/zo6WpfGNSb7lnYngw0B10K+Cw1p4q+PunB9j5oqAl5RHKmZnjZoIRFmFeV/9sXJlZ6OGovPoUqGiXccHJdg6SEeKIGDWim4hO83LBFlujHRhjfJAB53DmPqOwl8XqjbJlkbpzRghhS1xwAWErrIJVKLfJoAAxthFSIB4WJDPbEMNwZ+Z5HwqKzQXSxYXAW57VtABq3jt5ZA/zkk1x6Zx0LvPRTFsMV2sfgQVmtVm7tKVQW0ARqFOy49B/76RYPMM8xn3EfTzspRMc3a3cN33LLvZ0gvc3Ww/TJrfUUqMc2JDJC3/AK4e0bDE7SUW7CCVHb8vlTE0FBurszfXeYxcezn9/M+yJ83Bti9ajINj26IRY5CW3bM7WgsXEzeaNf59gQbaK6zm6fRUibhu4NIDU2UNI9Yaqf0a1AWe0wZzTlIzeZQzNKVNDWJxRShgyv3l2sXurmYHAOsMYZvdlIMYZnQCN/e6YY0ZIKiUsH0AWhgF42FaZ3iCqY/ZCeO3Tys5+40ZAaYXBpJxS5sCgcjcVRmm8BObwXZpEMxy6bavgy2recxUYUqBvVxVttNXhXJ1BDVWrH8U26Jsdo/nVcfeKGRgJMaDPy8ujzad1d6duD56bT+4aM7Cx2FVcwn52X4IkFlNaGyf48rVCxWVH+aJR9w47//w9AzajClsYDfL36+hF2NLwjH7EJTb6vv5Xw0G4WZuywoQobWRAWzEC6g/Ub0R+sR0HpaJHCK5YWO2H8BnWqOUborWC0d3+ye7/IvXmpLLGI7y3eZ3jrfQVExgLjLCDC/Znh9UUsIXj8nAtkTK1kVlrBfj4C0roWo4pAhzqBeviwrcixJf79VQWnFnU+bVnH9MbAIe+u9NM5pWE05V5m5MUoDBzkM3e+sofwaEVzoUUR2PSiG0xO/acoy19KvhjKUOjB9lNAwwa2vxTv3FM9bFU5Dma8DrGk9oPjBZlQbB41+UaeUDmKIu3KacJKyFCoYrY2FIb6LiVfYkncZYG1TZmIVVkNpikjMmCQONj1jBEasofieovXyHdYwG6nS6zg4JA2rsOoJLaLBtivwVbxvdH81ckV7qxk/yyGZ97Tkf5LYG96fltOoIJKZrcaAQCbp7iMjbgkNwKP/j/QQhQV5Ws+jOoKMJjlRHi1+EPlVIpTVS4EAY4XG5694FJYSYbGoZoj/zwqEQEvD8kKYzuLjSywZunqosrW5qGtR/7QHuY2232Gml7XXDOneZ0zD8mif3QzSxMZhTeO0PoEB1C/bv7qeg+gfood1qrYslAVmt0d09uDe9PtL0Uyv7KlH//n1pNuU9LK4HcPEvKj4XJnO1WO8xaMaab85mM0bG2Qj1zjLDhj5bzt1dxmDcfFJk3qgGJbC8JIOSKywCOAIqwgNsSgvZWvZfbQc/DoCyt2L1up1qgUnSb/JkwbRwBxkB+aIbfLWU37znCjnXgBld+GVy0fZwL37+wqUlYLFTYC9hYdt+I1DxtkFSvBK+z9frTsmD9vqQfZSepG81deWtQ3M0OOqnx8lO03nt40Ad3gRWTTF0X1/YjesPqgGYv+dxneXiPLO0CeGxs8ShurKT0IjaNQDZXN2Hwa5B9o1fIuMkP/rVG4Q8CXzE1EcCjdKKXrlcaDxMUrEuMsFKNCFyn5F5AmxHyhDGHkXEbXAjSn5b9Sik5NWoONK66xmFpqTDGMjwPTD7tQtwrrp+cIohWyTlKNCBs7GuZ6MW4ShYWwWCw2jC40Rp/nK3kIhf/TDDHf5lSEchJmkP+/us8LHTXKTnaBBdSeMwOVogXMtGfX+K77Q030lPwIC+QtvuGx9Qm9NSntbP74TQ+gPi8bfOQbsSEqCEh3tl8RIjf9fvQA4M7MRPumXXrb0VPubD9hnBuEF28gEgLGORpBMdvcDG/YFWDOyvm+lNj2ZvX+GSaNKJfaG1JBtPWQgLWVFioWoykLBu++yFuXptG2PE1ajVZGWxpQ2GbnbSfjkxBqpqxdVH1IvtUIBQbbefcW6JBFwKZB/Fu3cKHZ8vUjx8K91s505qgGfsHwuOP7mAUXN4VegFGsYYTRH3L8nJKojGtIWspQCPtt8ADqE/u8aGVfFPPRntmU9LN8P7flXW2tQUHabMnqycsu36EAZxSIyedakpLs55ApdWhvmzMWIJCoyJ9bam1W0RlCzG4EQLgOp6a0+WzTJre9qwddToQSVodFwE34xWLFLE5DPQ+kUo02RMrOOESMShkYFlgQC8AbQrgQYUPKVpYh7IGwpPRthP4ArmYo0bmAv+3OtiP/2Ok9WblO24LyQCabWe6VtXZpSzvXNsCf5qcbkxaYbe8B0jh2x4cmtdQvAEMZvA4qxqApr+f7+XR3pR8I4U1v6u5sG5mvsKpdqg95eh8vfD/nfKgw6xHQXmSPzlDg5tRjpuCuysdbnqwJ+GvRfud7TRDE0ZR3aeuLKi1hAX5UBslVi6Wsv95xg540cJHZ7WJ1LG7DXMezFWBdxmZQM8ofwrvxow2lk8YQGHneBagvy1go4/ExVp4TmwD8DGFOo1itt/d6XJTeBFIAtoV6Kvn/LyfU11sbjukeIL1p2LAt505q0S6HKId1vYaqTrYedpRGADcdxpte1ZVemzcPzdpkafKVnM/gNywFMeTezPM8an0WJCuUuU6TH+dP18gbze6H/yANw7mBG89gOrvaizEvxyjE21Zho5GTl1fQTS/Z/KL4yyycvAObVco6pinPGpElWvz2gsn5/RjlDE9JPzO5xM8Dyxs2Tog+2eswmO9zqm73oHoCzg22sOIzbFTBmidGopx3bAb4/scE1DcR9vX6PDwTFkUnq/cZi5PTqwZVaW/luib/JPfNhlG4Zi3GFTb2qNbMnOJqN6AePmyrTei1xmGXzzS1if+dx+EfEAakDV7v9DX5C6UaUQoe7miILTi84FfszwV98g5Q7+19NzdzwWoniOeK2gye+7A2CgxPPZDilEFGRMBUU97A/aAupO/+K7akwAzp1vy3j31lAvuN+M4Go/ZiEGPj9HjQtkyxEgoTVuSGto0MwNPkm1mMYpZRfl4nbR5D9AM/62O5ko/Az1BEZPeqCXDvkMu1o0c0g8rUPfx4uxOgBw8apCfqqvWJLSkdOtStjYnFjnO/iWhDvsYdkpRhgXpVx7S8yDYit9tbfeqzaaNgmJKOzGQMk2+lMqaGJ3y6/bMAWKuCu28u1bba0zCcwPI+WKA4owPXuYXVeaUvWcxsaHfChsarJ7ZA3Af/NKvUrzY15QcYG6XMdju/A89RrITChJWAObmFm5PKsa6euFPL2kVO0NKhtXK9aA9xLJh/yBGoz8r0uOTjXT76oh2kRw4fRj+/04Rm6klLsapvZ92jUczxRj7GGpSfoUG6K/15BScpTAhveo1dEY1jzvw40+PrE+NgzIWbDF743ip8W2QkfjQKAoMUPhoc+f7pEy8KTi5ZV0dxXVEfaEPTpMvBBkhV6lz4y5lg7RNaFyZMWJEYpCczWnQ0+WmT+IG1qE+15xFZilLon+1dWAlIWwIPmRsCb1nMQEDt8OJMAxXmOsuLVuBFN2vUi55A/jtym60B3osYntSX+SgmWzK3raqnK70hh7D3jfl49rQoytY/7deOBA/Z2ojZuwWc/PEUiBPxvS1pSq9zQts5hPb6ao55coOHmMh1PkB/ZUkyraXkh61WH15FJ7ECChNWQpbtqSoXMT0qU1vazQPHYm9bxP8M3WBT2/fPtp9fGf46pdWZuXJmSBQFZZTTGwpZ27XW65Na6vXxTaq+tcHzjeN7DNCg4gbRh7zbvxcWpGnFd+f0tjxFVBbaNmj/8A17J+UjnHzFLG/ZBLvnvfLelHCEAEu2ihafspwpzjLYJ4T9Qw+QusN1XFT5sFKmRg3YY71YrH7ChJUSWCelKXbJSLCIWWxjmSFig70MjGMuYHqPfTGn1d+2RRP5bo8CocFe1Ie0DccHqEcOGza5tmq0PoEAM8B5UkuKylluucVQe876PsefDTCB+rUIh3SgAdTpN3MB6lXz2uvy8rxtuVhnX7zLZu52O7C7KQCh79n8zOeo+s6aP6p8PKtA0cy5VlBJQXIOcvzSl3lLVQ713Fy4FJhZ/f1ubVwWgU45HGSMdhSrnzBhJWZQH3IsaHdCStCxaL+HXKBZEZtBfYfQuS3M+BBrwYRGtcvXD0V/NIjt/Tx6Vuh7UlNq9/GN6ksA6XENSao9XZ+o0wcOHOCs/s7gzLa0mnMF6u7ONmVl14yDUKVtiWes6kr/J7Q33ZXOS3gS7T+ZPe7e+WmQMqDKvpeO0wWksSmzbaJYdQDfc6Gw7WKDfrzRpCN93QNw057zORGb7Pb3uBcUS7puNgLIb5bw8Tex6gkTVoredaJuN6eEIfpDbd7YlxmejSPvTGXczMXMXAgH2Rc2CCGwvhftP8RrnoGiIZZnjZ7nTA1lo7rc6W3Dk57c2qDHqse49VJDRKRXf7qhQdEshaigY3VSW9tW3Z3tp/R0tb+YySTWRnO+oP4MCdJf5KqU5e5Ny6/aAOd577kQ3xVta1YFNir5Pbzu31nnRQ68F+hra6vcWprsrGZ0E2F4uVmED6gYh1466zxoA/O55cFoS3Lr2zZpRp1g/bIPUD9OJVY5ZA1FCFyYMGF5MVo8lJJ+mt2mIp9sB2o7J7htwbYV88i3mt5wpjpTojKW5TFr8g6UNS1Ro7J+b+eYBvBb3rz1fc2GehYF6qoxo7yYyXDs2gdcid3sfcH8HnT78W4ec3fXDEpTSrzrZwKA8ysgNyF/e+Wyue1yPp5rFjmIhzgKwqIOIpIdPELpXbZ5cn/G5ovB7Y3nB63yXiCnwhPybxCGd4uo9EVWpAmUJzmj9sGfHAVa61ZkwI8bADSqPqH3j437q9iSSlJCfU6TnzY40k2RmBI6LLpXYcKElaDRUDbxNLPJGBiLnZnrtGseA9RZ4UQwK2UBA/Fs0OrTJMt1rNxZJt2lfLZ53l7CBxSONSTi+tAhQ/xAGkdvq05LvTIrTDEZAdbzPYG3Y/pM9E+Tz21c1ZF+q6ez/dqezvTyVR3ts/C35He/J8dzqOxGZTj5L5Pmsa2tbdCKzvadl3ZOjeXuTfdtvrxESEA/m/HMPVi+LOpQZxsUaGNZLViYE2Dkwuf6WL6QF5ZPt3viPAap1L5Ii/yi3+eNTYGbGImxqaSgTuYgR/ibxVs/mNKfMqhWe98dTXmw2PLgqBhvTMrTxYonTFiJGhY3Xj1hAIHp5d5uD1FTmUIUMGnK9QiXQ1Up26OWZqKlC4uknTWsz5Pq08am0omadIEZstYnNWvrkvEaMGN9wQHSOHrzomMbEmfzVj9ngTUBXh8N6U+Ra+7pSB/l450fbHrVtyDP3TO/rX5FV3pXKG0B5M3fXZ3Lc7SDD55FhYu0HpV69G+Ds0c6Hndwfxv5apuUH8Mj/cT87xOWnGouBvIW2qJEPGueHuHeuZMNWA8hCmBsDNkEKnYyFnevv64pK4Jgpn8gkoGoAVXrSsqHY3NK9YoRIUChnqMNrqCArcl/MGtPBouVT5iwEjKEGiFXiQWQxdzEKg6yL1RUh1qT74NCl09Ydo0FCmjBkSRpdMbvUZluLO43WB4fKronNKo/a00msbiCcWkTJ1D3bgTGNajXm+d9zy/sygTrhe1TLDB1E9Ugx4eoAEe7VnfXNGavOvGoD/XpqX4wt7C3fLelkOUG0sTLvdDRt7zG55md4exzxhi6kployrsASRS0VZhiHlEa5ck2ojED/Oe1fBgzOoQNhsm+R+5jvWfVtBqfyL6ObDESjIlF4Wu2mLFsADahNBoBsRhwgYfoN88dsMHUpywVq58wYSViVFxBVb5DFqVZpjfybX/WJBT+GBKXlr6xyaU9xD0sK99vVQCjMAkcx/bfG8Vm8jrQQYIGEW1frZkVyw9wgjSOH/UBdfIRi6ccFc5hxqiz85BhZpj7fU7ZyueIt31Bd8f0dgD3ys7pqSlTpgz2qhInQP2nsM8QOX8bmB7FA7p+FcFOrxHeIAoBnfrl9v7nsOMbwgbwfMgoljPA01lkRsPX2GB6znPpcubYmKQvzrA3hDSsYj6kHhCt4tqAJGPNKLxD4RyIZLCpLJCH/QKPiI8wYcKKxFAJi3YtGg6X5ZSPV/2M1XNtz2uzctP0fPDCAOZmLtRQUFJ+5/ycyYjmtgh/EACoH+8F6qbkm1bfN8Qjchmj49rahvd0TF9MAPvLEJXeHyOf7fK733R3TZ8Y/tkZPOlu4dqswkEyFs6IBmM+3JWZm5ZvcRKZ8FaX96cZVensKm9WIZzjvj5gntORt7ePK/SHe8cpRLrF2LRWbIluC1Szu6ncRexh/90uUCJMmLAiNatIzGrVIv+9wieHd79TyMCq9M3y+KCfTaksDYk303v4o981jW9OWq1huwUAaRzWAjl0XGNio+VFWfnJXGxVZ3puLrSh5G/Xm0VmDyBU3tMxLSftYyqOYvVBk2fGiGRcwqDqnBrIm04pGwBaLuD0aAE96VBmRmteCEUawuhDR1Ec2NbcNi3gz6cKdmarV64a2mCJQ0SEnPNeWnmeN6pS5YcNyfgksRoKE1bEZiMHecT01N7w8jagXOTYmfe4eGc3WYVIMEpHqsn/l0yOGuV1PcRtOcf85+0BgXoj/Z5YTEE7V1//b3aRWyCQntdelxNlaFf6sRWzjqyO8pnZIxtZeX+y6fKqfnb3pvsY6LwIQKx5UkJRo7+G4Nm+mD3uSAW4c3Obm6T3rTqOCG9jsJl/v8mroC+Xg2ykV4rVUJiwIjZLTcvQypUv8yq4QdtHhmfhokuNPCEqgR0/e8dJiJHhRSjV2thG9btbGfzeGwICtVGdnKjbbVxjUu8Tp5AachmbpXOOGAWykvAiHNMPj/x5WYu1Jn/P4UlfzAAQtKgN8jnlIM5w6Sf18bhUSnMbG5nAGs8uPdx2Ahh2zl6aSZ+PSalKNdFzTL1kRcHQHYH+cU25I/K8tib/3qttT5gwYf1sIL+wFcis81qs7XrW6Jtlgolxrl86gPpP6Dl1u4ZWTZrRmlKuHTJkyAkhQBrHsFSybrodqHmkFP2MAPXTYYF6zpwpW0b7nKSZ1r3Zubfd2u14NMORvnAWXrk8+/XoFzbysfK5LLrOIvasH+AHLXb/tlmx7U00koi1YDNjzwXn656Q10ZBKDYE0XrX8qliRRQmrGjBug8EPMLfXzhpFhs1ZY/M8KtBDuFkhzJkM+WNbt8/riHxHfS9Dhw48OaQQC2nlFinHaijEClA9Xc4b7r9zogf0SBr7KGzbAOh88NIQKL1CcWEtk3XLxBVsctlcsyHR2kLl1LbWuTTe5Bdf9vvYEUOeLgHegmBzNZDqxCTtxo8rCGnjVZIO7tbjsVmt2PTIVZFYcKKEaxVZZq/LKH8lj1X5uRmtlpgUCmbAdTJeKeXyP34huTdKTn2B/LPh8IA9RZkvSLnXwk5TLdNREiP+qIwQL28M90c7UZKWdqnD163G9sb9ifvQJ2AU+MZvdAo/Mvol9aUZ9mtTq4c0z8odupKpGr4vMr40dkbG3f1LpbsJpjBHK1xgwvzDiOfLd0WAWBvMPvjhQkTVnyedR8guCxE/7a3v6Bgx/pbLPZWmNRJNtJLGqFKC1jfO6ml/tGaylEQ0vhnSI962IQm9YrW+oTeyxXelNw/AqC+Prg3nRuZCTt8a+Qk0XdrbHyUY12BJhHfO+vvCbiDw9oqeLKES6y+WuqRqfJ/kfu2JCdDtAptAPWsU9ilqMCaSnP6RgrOyx7/TF51b6A3aFdRk2E759qoc9be8yXeCJ1yhOzdKvg5oyZXilVRmLAiNKok5P3yLjN7o2m+GpSPxt/Jy+2SmI7QoZUHv5bxlUMIUL8/ZtsRyA9+FQKkH6Ng35x6zLrGic0pXY5VnVxhakmHB+r2RwMDdWf7jEhDmza5UcMrrqq1e3DEizoNFdm0N16VOjKfpXIowJ0V3rR7eajMz3heKekE83ltCpnrvKVYw6d006jJH3oUlN3D9sj51LXs/dj2ja+pNDeg0PeLdjry/s0j1/VYSFnPv4k2LmHCihGss5mtstqyrF5sizwBikNufNKoWLXymtkbA+VQiHBUjxl1QwiQfrPCqBQH2Umv5wD96tEjt0HO8B1yYANwUkiP+u9BgXrlnLbaaJ+F8ncrN017enu9YjZvNxW3UKUr7BKYdv5nAL93+NTmCarSYniTPHSzLtXE9yFnW3RgDbENW2Gk45r/j/0caA6fb6NCNrJ981teYWcHY8m+Fuy9Tsm/MFnYwEm+NmBF/BqxMgoTVmxhwpT8ohsVoQ1E3oQ4h/nv9cbv44ewz8dmfwKT1uSxDfroEVsfwAnOAOAnydFdYXJMT2xsjJMNQ+81TmpJ6fGaSvvffDfo/VMa0I70JwF7p++P8hlgE9SrUqXGj7Y2Qy49zQOcOt/2lIVb2iHD+0rGd8koFrTVFIAGNmwYlVJlFhlgI7rjporF6vlHKDnQPdvanewbXyt90Y/3/QWog+mGBSp3KflW8g5/xNln/osK/5Y/YcKEFcqaUvFvur6wydqk4UXHDwYZBNo6ettUXMJkVNDDVMty/HzdxGbNqgg/jRzrK/qITJ4jx43kAFc4cs4oUsuSTwS5ybjGPrIThL6TUq0F0qHybD0L2rYP6k2v6po+NeJF9SVzcf8TPGorF8wCEqfuMjxqsE+hEp/Hi0O1s72gDPlNZhg1KR1AF3eXVi4fwF5L5so5oK3td6COx8e4Vbmjkjrr3n2odlm9yY5N16nFQB6TkqR60+ufl/FcyfuOfvyMOgb2pu8NiPuIFVKYsKLxOtjKSeQln9sLEDbWJngjbhSTFgNWg1b3LdvPxjcb0pZ2kQqweaFqmjeEXD982FZ3wou2rmM8Ae3GpASQDu3hdnfNODGgN70Rgh5RjT02H7Yq7I9YHpkdgBEWh+ADxCmwGAf8usGO57jJjx8ceW2EdcnC/lSoPDbqHMi19utmVJVWurB1HeOycXonIOvXBMdmqt3iKsAmqr/uG5sO9MSzNtWxWGwYihWRU/fwrP8XRfujMGHC8hoeVG6wLT6nO+kUmYui1cuqSd228588tj6hj6tPLjI9ZYXjssAhjjwrcrTIeesjt9latwN1Kw5yXmnEiNHhgbr9zkBAvTD9SLRjr9zL6mUHqKL9B6FoEF9E8l0OAQ4rNBpk4ccGDH3VlOUqpXwZwMt+zuyzH9cvc9zkTver/DY3pU8HFcAwNjW0/e1MCNnY9d0hV9pf7zaV4CQbO6/PAMjJNV7q2l+vxQ8Wq6QwYf1sdm5px476X30ArJxokwrs9lgQL7boSm1gdMN2rSm9Zsy2KFAD09mfybELOZDfQ/gRrUYI0a0mB8hQIO7xaYUjb101epS+nQ2oez3rlBKaFpF4yP8IBNSd7WdHNu6J2GQGeGwCkQmq68m4vR4VO5izvxggm6uwhCFkET+kSZXPNkL28ou0/cs/B/prSHdGIajCDVhMvelMfgDbxvLqwJEDQ2VuqFsfNzYpxb4O0OgOuX540m70qcKECes3oFaud1caik80ALiPxtCL9MIqdLLLJKLICUA9cpvhH1WE65+mR6xqdIZH3ZdLV44Nc9/L509NBG/LSkem9Wv3urK9GOXdCg8t8EDP1xYN6V14k/L++ZhLCKlCqQtELU2afJVJqrLJs2Lc7OnO+zxXlYucettMUE/KRwTPy/fxhyMUzgyfk3sthfUA0rRMXnlNWi1WS2FlaSgY6m96Rq+WFCxaJqh8Yuc79lgMZ5tAvc5YtAx5xYnN2gcjh2/9YC5ALdVWsYE65AKCorCgQL2is33niIZ9qFvrEIqQomrvYTGbFboiGVXlZGNwOPW8ab+3/CKrAhlkLfB8myort8nTpQywh+vtEaOM66VtXYH7kHU7jah5jgdY91gqaxNqC2zFjTpLKEaYsLIwEIkgV0he6rsq8kOUMNTvAyCu8PAUjmpK1KiZYT7pBLdzGZzEvcQdAy0Pe1JL/WsVBpMZPFLc6x/N40VeoE5KNQB8Vv7zxjAD09OZviRgIdm7UT2UJlW50KX46rIIPch9Wd+Rq+JYFIaNCCIzAGaQ66DCHP3fADeQu8Crywv4JKW9MiNG0k4um9c/hiicuyr7PNlcBWb7U8mYkXOXH7W9b3eJlVtYOdoATH7qZURcuIFQpJ/H7g3U8s12VSEoZiGHxzoP1J4oEYfpjdBF2CxgmtCsunlxTbxAnVLq9Ak2LWrbNT0WZmxAAxqQNvSaKJ6JUentaHvS5M+hlBRdlEQaj3OWokcHjzqqAjrm2KjSFX4FdSg0CyF0sZ7VDUH75B060yg6K7VFiqwDqyingjGP7q8QJqwcDUVaFj2nW/tTOO9Nmg+SizBA7WzXAI8yKnhZC6nBdiWPQ+7PzLM+iFYu0zM/w+XrJ/CA9IABA+D96JkSl319u6E86q72l4IVkk3fL6fngMiEJl1OFcocVJ9RFlYB6Fj9z8ibirfMBOKU/LZVVFdVVTU8awxNOtzgtKoGB7jTEP53trhBFa2U1ymLBEmYsLIzS4oSvc0E3CIh1oB3ZYZUh+QI1L+Gdw6PGYIAjMXtMiMnKrdn5bqJd+1yeTvyAPXgQYPw/fq4hiRT7SvomLS1tQ3q6Up/ECDs/X5n5/ahiruo2hFIScxNi51JDF5KpItoojKGjRTzGXKwlpWLIfxvtWw5udNtXvUHIche7vJ5F29zzN2FJTt+mnwjalDEbBJWlgb5yKjbOtB2gYKenIBaix8CxSw3HWiwZqG1CC1FXoU2DtuZB6iHDhlCe6bHMoAaXhF6WAN503OnagHD3rcGHPKBAAC7ClkWM1YeJCOpRCkbQIQ3nTXv40ebaYd/uHjdoUhesFnyfka2Vkejs2JWqY6hH2GOMGGb9yKCAg6zn5F6SKqyb05etSrvh5YL9i5fuYPDU/iKflaJbW+0RGXLHFI9X015F2BuZzwCRabHpe3KA9RbbjGUgrQlcZm9OMYmBxmPVZ3pI4KFvdPn8pzXII9QeqxcHo+gQ0Q2mNY5uNLBFp9oRjGY1fEAUh7Ge3FmSM7zS/2/VznL9vmvc32/hQkT1k9G81q2fCaELXJblJTXG1V5z+yfG7SfPmHv7xpehtLl1oeLCnFLptEubuBz3XvzAPWwLbfQxzeprkAdlJChp7N9daC2rAXtU3wBmtwnXwpBgeDI4CjnCnp0PXqynxVvk+d78aZRDZ8ZlWmS5bpQQE2eL097XZa4igBrYcJK01CcRcD6lb4XGuxP0pJwi7lyPat3lCwYT3BoD59qALB0gb2/OgOstLpvWd4bOefvbNd8usdlHcYD1FsP25JWfLsBddDCnO6u9O0A4FMWzeTRnn4fOW1m5EONH43K+GCLued4hPEKr/EEDkb0Q1ifWQIWrPyyvS0pUFGZS5qJEek6JYMtziQYEiZMWIkZ2p4I8L3naOf5Odp8gpwH1a2s3lGrAtbHo37KAntz9z87KwKgKXuYQHSrJUpg5rOP87isY3iAeputtyJArRGg9pTm47ZVHe1rVy+ZrZ9Bju7OtF8h2S1ZC6wS257F081o2Xnd+TP0zkc1N3q51d3DsHeKN4hjHM18tbM4ClXc4bxq/jY48gwX2f9W5H2FCSvV8FyyNkkW3T87xRuCemfkb36D/LH1/yjyYlQjf0x+9h/H4rOBfHyIVXjGIj1BgZn59w7GLbnd45KW8AD1iOHD9AnNGhXicANEbpCed9g2Z51w7Jdd6UP1aQdN+ezspXO9isj0C1Z0dFl/q8mxHcj9XMcB0G9gjHqLycw+2ij7Z1k0j475sS5okV1Zv2NGZGSD48dDnT3QnD3VnwRhl2vU4vtYlLKs9JQwYcJKx8D09W9WH7EXrafdoEdM/8aUHrQzifVVmssrenslM1qslD0gsGEuRD1Zi40an8ikISV/53FJZ3AB9TZbM1nJ7AdEInjGYGXn9MkXdXfpe+4w7qv9v7HjZxeu7HAF6XOXzdetv5NjVae5FrMx1JTIc7nSKqbDwo3iwEKBtLGZUn4kXpmgYK286eyFDlv9Haaa2+RPGCqehDBhJWxUscjJv5vJsjTQ7xxgQINwvBF2U5Y6z1NBeail8dkALv3AymezCExYfwPijeZ4fIzH5XyHB6hHcQC1R6925s5g8ezpJ809Wt9hfOPnK+ZP++r0xbNY4W79HOJpn7d8/h92nti4R6xy24fGcoG0fCUdCyrpaIiTgCTG/PeyKOYAOLM5PToRQg1o0N8m43sOGP16x1uT54as/v6zGFFhwso7TPdHl8XhFTf+4r4wm3wcPkuVjgi4O/7+r7bv+CALdHuZxrJDuKh8Zl2Pz63cHBVQe7CfZRjxpk87YM8d9W/tut3nF/cspKDsBOlzT5qnw9Pef48d360eM4pvYSYbGTpuSeVY62cYY4uyMqLnfjJnwVq7eEvCGbotnGxlLD1rLq86RylRYcKElTpYp+Tveuzmr/b52/eNkCzx+FzCpTQE7g6KWYpV2CCEKGb6LRdQjxhOgDrl50XeyzNuyxdMu1CVavWOaQdvOnfZvAyARhX4JScv0lcsmKZv11qvS7WV6Hl2LWLLUhlT5eVOJrCoWm/A/MaZH31TvB3RGksqlI9SNH60GD1hwoRnfZMHWD/uxpIE1ix2K0+ftjO8CrssoCOPfUrWORN1uzFA4yyfW3gmOo+6TwPby76x47jL6xN1+pknHLvxtOOO6c1Hr15yrH5xdxcAXG9Ixqn+Nc7rnZeWN1qtOGilc25Q4AGjgC/355ytwuSeGxXFSFEbKDPDhb+le8ToCRMmDGQXJ7mTXcifk119G+PPhjKA7munOARardj5cOXELI8vKe8fop/0H9EBtfIez3hVjx61duZh39IvXNVJvWga6iae9XnL5usHT9lFj1WP1hPxGn1sg09OWpM/szjPqXavJm8yW3Ne7R2TRI2aqxIUohwBerTPFW9E3iJYb4cB63xJdgoTJqzUFhFVWsJDWJLppWVSh7LyyXaGMUef6Jysz1L1LMciVVcne1w28oD/4wHqkRxAbbBLxZSMa4JiVX2iV4yidsyoORNbUvoZi2dvsorIANinHz9L33lii149eiT1pv2qu9G+ZhMmGWTRvVJec0UZG2HEJIjc4gbxJuQ1enVyKK86JEGRMGHCNseFJFG3mx0wGODyaL0sp6zPo2jGKbfoPKdBttJHXuLlKYN0xAHmr/pccrKCU4t6xHA+oHYyppnhx9soaFdWblMzZttPjz7gG/qFKzu/Po2A86WnLNI72w8mGxlJr6seY4S6/cksXrMiD7RYTJNfyAcNJDnv3UEAAcxw4i3In5nvwqYQ1d/PidETJkxYr8GjdKsIt8Ttm5LSATYwuMkGQEzRDlYREwgaMj7D0EBuSkk/87ncyfxA7U14wsqJQ8nLrLamLWsNifjZKSWmL0wf+hkKxs5bPl+fedg+uhyr0qWaSp2rRzolP4V7tW1OnrKFwr8X0WMcaolFcBctGTKmwvLuVUvfD+VVe7coChMmrBzNr0LY4sYGM5mNa7iLeS61rokBDDtkLGDJeGd2Dlfq9rnMfXiB2o9C1HZfN9NrTkmrDA871mx9mVRbtXGXSc1vXnrKcWvPJyC95w7jdbRe1St1Ol+PdGZVuT1/D8a2qJ4dOd/fAgGBi0yjsOjNXjAY6BCCG8KECWPu/qF0pckfeoDaMvNzz5hgcxrzPPaWI+PvNjlzwbTCnCOP7bCjeIHaT5TDVo1+ndUmRjYTV/VtNuTTUMU9bf8p3zr3pHn/3GF8o15L/t9oveIiMrkpcyNkiJNYlKsVHEQzfkZZ4zT56YBh1S9suXJh+bcBXu+UHxGOMGHChGVZMjlqFNqDvKqELelKVIgzCBoG4ucOz/LfGaBFw96MnKk/rel8XqAetpW3zKW98tsuIgID3zUtbJNj5+6xfevO6MdGPpoHoFmFeODwzvzO3IESQh1hSDV4VZqERehVe3VZuG8g/ytGTpgwYd7etSqvyGYas0lnQryeofoDnWeW3i60eq3PoIArZDh2KS9Qb7XFUH1cY5LX+/3K3hKFVjKzH/qBZLx2HchOvELdaMtCn3W8Zoyu1lWvzIwcSFMdfbJHReFJZ0qZcrdi3Spmdn9sfiu2DLOpAq++GD1hwoT5etctmnS5z+K/sb6iYos+YJLXumgcT7F95jkG0cP3OS7pNF6g3mLoEAqgfr3NAOkGVf5GJrhmKYExD+S/cdRWbku/Z99dt8/oP3dSpPqxv3FvolLy+8FlFJVnxIzuR69aVS4KHP3QpAvEyAkTJozL0MZjqWC5gN2Npvc4w+MzJ1NvWovvww7J9lWWe9i5vEA9ZMhgWvE9tiHpV5X9PwcIXsIH0gncEw2Jbz+2QT/x2KkbV8+Z0+uVJ2pqVLvcITnvw5F4Zpryu1DUlIkaVczk/rMmVZoQIk/9mBg5YcKEBTIUXaHHmNkbqir7elUfN2nKr9y8aahzcV7CRbxAPWjQQAqk4/yAWpPX2RbTlTwLKLxntG2NGbWNPmWnifqaFQv0c5fOy8jDt6QSb9qL6dBTm7MnbeoPh6ggni1mb/9bc0p5UlTnCxMmrDALTq/GtHSPBR4eHN//NcU7/kL+vZ9L8RVvq9IlvEA9cMAAnWws9PGNql8x2RMgIyGL4k94Pel4baWejNfo0w6aQqlEzzpxjn7GktkvWRepxmset+fnffS1+TZJpoJZ4EOTfy5mbJG8N0ps+4A1BRudFL3ChAkTxgnU8jUGCEk/rU/Gd3H1olN1u/eCuguQm4A/nvOrL+UFahwo8PIF6pT8Kk/OFwAN4K8eM5IWli2ZdaR+2SnH6aAV7e5sB63or3GBlaNG/jij8CwCb9YtXcDRx73erpMsrBi8avn+gGpabWLUhAkTFnyxUeWHTJD7lPzvAGvxARiDrQx91FarFQH1tA9D1twAX70mCFCrUu3XEzhoRHlAGh50vKZS33+PHfQzCDhfuNIU6Fg4g3rUy+ZNW51S47NTSp0eJfOYQTmqfBxK21iTdxSztbjMTBEFKSj7thg1YcKEhfGoezWpyf8OkSRptKWm1ZKITbZ/FqE7N75jG30nL/nH2QGAep1UW/nppJZUTgDdpMq0qltTYvq8ow/ULz15kX42AebuznSv3OW3Tz3u61mHf+sBEKK09uXdn41kYdeUB0MVj4kFvpi96rcDVOs/KUZMmDBhgY14wW/ZCDT2N8H7tyb4vu4A9RcYBVx3N6Xi3+w7n3IiOec8jq/mbs/aeqstN8DD9ysmcy8YS1IvGuxk+++5IwXmC1Z26Kcsmkk9aQukQS26bN7RtKdck2N9eXkXXe+A47woXMhbfplsnrYSM7U4LUgqA8WOURQiChMmrIwMPdP2PuNGNT6LAnJSmmLzlM+0AfUDLZr8f1Z1N4t9DP3FVlW4j53CA9KVo0dSQQ5QiKLyO4wnDZIT0G3Obzvwq4u6u6j2tAXQOPBvhLzPPWkeVekCoFutYPVKbWvOi3ksVmmRygQmylCqNTFTiz4qtZb3eaIORIyYMGHCuM1JXWnPMRNAvs/6OT6XsTDR/LXyJeucIFVxSlw2qfJhoPJ0fPT0Ch8hjhTxardrradtWWFA2pS+/Khy2xHpeUftv+y7ZyzZZPeiLZCG5CUAfP89d6Ac4BYDWpMqHRPBMA8h1/5SOC1j5Ttilha/taTkdv72Ovl4MWLChAnjNlCBgs2rbxGRFvR627W1VVY+2imjSD1rfJ4REsZn8XfW/5sFVLenUnWy46PMHDVasZBH3q4lpeeSkzav/YfVW29dgy9bs3zBSoC0BdD246JVXfr0g/emalrQpm7lYJIypQsH+Htb0upQ15+S/ylmaEl51a9wzstrxWgJEyaM21KSVJ/pwUkdDpD5fh9XcXxSrweRiE12k++DUpBZmDbYPMd49F0z8qxZhCejR25DvVkANNqimkO2MUFIAxza9i87c8nsq+yeNM1Ld6b1i4knvXjWEZTbG1XeAGpy/Jq9GMcbybnPATMZxs4PqHvHKcRRL8spMUNLx+oVZSwnUD8uRkuYMGEBvABpvJc0JagqbQvMWgcgv4D2LQZQ30g/b3icqIqdg95mxtdfaQH0AOJFy7EqGuaG7nQu7VduOcCVHdN/agdpgPbZS+fqpx13DO3PVuqq9cakBJayV+vr+/jOiQ0EuQu5r7vcNjSu40u84pA907eL2VmC7xPZwHE837+JkRImTBj/wmIrGjPJSmZkeYWa1N3Xyxvfx/zxEOpdMmQWLVlNyyMEoYqp2ey0nwGkRwzfmp4bIN0a0ou25dh/7Hav3V3pn9tBevWS2ZQudOeJzTQvjSrvyWMb9J6F7dvh84nKyhjtI3e031iV8Q4blD0OypkhQ96fQjpUzM4SfJ842MrMd2GIGC1hwnKzQSDdRz/x5u9RZxKYuMk2WgVn4PZuVOU9vVpMEOa2h8pbNPn3zuIy025DqHu71hSttCYLWM5kJl7PrLur/SELqE9dNFO/uGehftT+exKQ3pYWqkm1lXrH9IPXL5l5eGtCqlnQkJS+8GOWQpEd8vTO8XBGKgLm1tPiFSxdA4Wub9Qngk4CYcLK3QYQz2wHsmCez6kCVcKLSqZwRaMmHcT8nKnpzJNjI4D7np1Ji6pOacqDzs9JtVVPTmpO0TYoL5CGDjWA3CAskb72ALjfel0X8aJftrxpgPTMw/ahRWtkQ9F7jr12mvAl+f91oCvN0r7W4gdn3KcqdeBnrB5nixNdFJCVpQ3206uOqJtAmDBhYOFqUpULyQ4Z1clDi+m6nO1SYc2pT20nLmF43y/7ea74udUvbBZbVZgAdIn9cwSgOyaadKBW2xX+f3yTSgESOeNJLfW0qAyc3Epd9esNifg55HNfuLe99FWsO+24trbhq7rSn6N4bM2KDn35/Gm0txokKBYgW9SiAG4nSDu9XLRNgS0MUpXO72pMSUeG9aZtqQVhJR2p8k57sGo7hAkTlovXSbxJI08ptxfD9ahqLGHpQUewoGRILTYn4ru6fzbeaFPRuo71GYS7rc9UVVUNb0rE96afTyrH9o2nvIP9OwHQyE+jmAt5YoA0irpQXDZqxHB94MCBKDijCxv57KYwGs2r5k9vgSd93vL5NOyNz+P8Y51eM6OC3F7tbkYI/oHKdtdxSsmvhgx53yjets0nKuclDkPm1b1iiIQJi3qHnFK6wMRFFtNLGcQd/bBjl69sUqX5EQD1E0GEH+xVrazqahCb9AKnLNc1pZQfmcC+n+3a/wgvGoA8sTlFQRn9yxVmBfiWWwylVeAVma1bZ1KgbtE+d1n4Xve67vOWzdv7gpWdlDZ098lj9RryfRwg/WZDUtrZMe5rMWZu34PUQehCODJe4k3bfMyLWhQEOGKEhAnLg9WPHj0CmrImY9Sh/boIJGPNplDEwMD3kajbLpWqqTaB+t8ZRS7kd57RBeK1gorTrLB+y/l74m2eZC5EX6DwiuanUVhmoxqFMMHYhsRrDar05Yjhw3hFOU4yPeo3XEKJl3hd97I5R83rSh+qbz+uQVdi1f6gmVL+AnpVxyblNT9xDuTvQ3rTD4g3bLPc4D/jrk09apQYIWHC8mAoHCLg9jtzcb2rP3l7kV8GsUfwnb58HLn2mw3GsEz+aT+gpt+bkm91q4K2yE7IGL2B8LgpD/mZQ0d58IQmtaly2xEbKvjVsxabHvWDvHzYmhZTWjV5XiJWfWkqUfcuctJSbRVlHWutz+YDh5cP6ct4zZjLKxztM7hnMLhVeNcqDPXS6c4DuclQ1AHgPsWbWaSbe6W21aOVcAcxQsKE5XOnTIDORn5xRb8sArW1VWFaPdCjC6+2KSWtygI8R6iX+feafJWdptNeUGX1UCNsDO/T9B5edJ5jfJPahvxzAKCmBCOTW1PXMrzR5/E7eO2opoV3jfC0RY0KEEaBGKUGdQl3W787ZO9dsvLEKCikalo+KQ8aQQjF583O97M3WdJBZL79AGNq17VG6B9RFvFmFp/ZOyb8OAuECRMWPVifbAtlvehVdZzHa7gpTEsPZQ8jnq7To0aPtL8nL/8E7Eq2e7+197xmIRXk/KywN/n3L7OAujF53dbDtgwC1Efj7yY0q4cycsn/tlekhzkSdTX6DuOb9POXzT3B4Um3m8Ie0znG9E/hwt7xRu8NgHyYyZ9+Ka1NSEk/Q1UxqstBOGNtmBolKS7eyqJdK95hhL9PFyMjTFgBzKmaQz1VVZpQ4EXga7CHBfqbZLyTGUJW5W/4/i3yblr8YICH9XcVZqiYJeUIgHGeY2x94rWtthjKDdQjtt5q6cSm1N4EoO7IlRTFENyQ6dFq/gwV4HvsME5fs2zeHOsa5Zptx5mezxl+Y2Kvdg9IFfqm1zOiEQpNeRDPlwXo6PUnG6IPIaMp3sYi9qrN7gcHr/4VYmSECStYaAvtRsSj7gOmr8nivqZQxSIobDO1pCfy/o2mSQ3MXClHjpoSmqjKbPLPAbZ7vilVVye7FEpltJJBRQth5qFDhniC8xZDh+hjRo2geWOEsceZ+tA5gTT53kRdtZ6I19Cqc+vnEOSAxOWVq0+ghC/bbLNNpUGwIt/CuVl6INQ1qcpFznNBE9w4n3yrX2U/hCDEG1gqXnWfwI2p5369GBVhwgof3rrLAVDvFCoPRb7rD9ggBPiTQaw+T57wKVWnSkk/M/99g71Smpzzf9kV2UqXIwoxHYVbgwYNYgL08GFbUQ8XjGTor6ZKWjnoUbfaABptYBPJ+ea3HaTvvv04SnqCz8SqR+uzDt9XXzVvHuXY1uRafN9jPAOJQrbQLVkOghkjrC2va0zKR/RtbGqqEenA5qhZlVcgZ44QOBZ+Mv49CKHCsya/W47PQNHMJJsZJN7KYovACRUtYcL6/0VUpQXkJdzgCG/+rgCMU4OMlijKouZrtHrdAdTI9fIs7tY9mf87BG1a9mhCFhg5hDsIaP4YoDtw4IC3LHAGqUlN5bZUZhLqWWAl8+tz5jkA8CBRAUAjBz3jsH30c5fN01cvOZaGvkEViv+CkWzlvGmvztpvv61jVdt+wAvSFaCL1JTXQ12fJn9utYCBLxw92pQXPRHfFTlx8v93g1s9Qy88GB3p2wADpAtomgIgnohNtlTNhPVD9M3GM0DfVyG+IkxY/xjylWhPYoSAz2NRTkZljZqyh5lTHe/7WeI5OwGAd4dvr7Sm96vVfcsLMJztQ+Maki81ahJA+j6AdNXokQgD6pNbGwxO71Tu4hxWmNvymNsP3vtrgPMlPQv1y087Xj/6gL2oYha9PgLku0xq0VcumLaWXNunaryGF6RpMV8O4ht34xzQzSb//gD84GTenGXf+OTloEV+8osEyH9BPXNVWky89GlQfmpO1iYrhLJTvqNf1/TOgaQ0RYyIMGH9ZPCUwOfL8HL+FbTwK+CO/Wx8jx8XuJ0O1HZt3/U9P/EAzPzauxngrclP8zIwtaQSHzcl4w/XVI66FyCJ8DY4vsn3Rw5KtZWj/5Y+dJ+rrlp9wtdnLJ6ln7Jwhn7WiXP0XbcbS8PrRkW3RL1tsKSNHrHNtfwbo/AsZGZL2ARj7JR3zTat/+YVoPk3EO8YQK48iVw5UjpoIUPbG9lELILCGmoZRJV5aBtskQYhZSGGQ5iw/t49q/J+qMpl9f7ytEKFMat/ucIjjI2FNis/rcZn+Z0b3rF5/RnkH0botq+v115klgX2Kfl95LknNWtfIcztqprVkDRy03xe4v+ZYeJNljetAIgTidhpi2cedjoBaShnnXvSPP34Y46gXjR6p03iCRr63mf37R7mBulYrNL6rhCV3u9Z3OcAv2IA55CA/hXY2kAri3w5+oWh1S0IWLg21IeZm+PXxGgIE1YEpqrVNRZpBos60s6DHZENIOd9BdzkoD1le4OZPMQoAgOBii9AqfGJbiIYLDEKch3LHGG/ZW4AB3AdR1WzUvQgixkA9Ws7SQmukwDCUgAd+ohxH01qXROESuDV23Pksaoxp+A71yyff0dPl6FDfeGqTv2Iffcgvxutt6bIeeuNiu/D9tlNv/TkRdztMuQ67g8Jbr+xoh25aFYXOYB/TTYjfzcAXL6W/HcOFN/ESuCMahmFmIVu5xQmTJiXp5uS290Kj4z+YHlcxAvBx26SlKgqdnJbc3kCqfg3+/6mbnfr51iIWUVPdopVqt/MKPZCyBnFY/CgmwxJS330yG30AQMqNkq1VV8gb22Bu5tqFQGDR+znTdZV/8L63WnHz3oOIH3Kopn6ecvmQ3OatnwZTGxxvZEcKxZM189eOpeLjhXFXiGLu/7nuOaLN0egdlMhQz845oCZBy97Q3rMoiIWoyFMWHHZQK8FmnrYSWmviL5rqLUxcNKMEm9uquN7v/CSibR51LNYPN+4Ztbi3LsoMTiPEfamGtBSLS0og2rWwIF9qllbbTl0HcLjpke9wSyUOyp7QyLf6Dh3b6Hb6ra2od2dMz6iYe9l8/QTjz1Kr0/EKUBb/dMA7nMJgHd3pWdzetOvhQMr6fsoJjQ2bPLVrFRB+RygQJVWh+Q433xC4GSzCzU5t8iXMGHC+jPspcr7eVX3Qieah3ebE1jedgo/NGvxQxhAssZ3YVGllX2iAsqJtp/PZ2w6Nlka3ghTowcYTFyo6h7fkFxVXbXtVUMGD3YjPNlA7n89vGlb29f/t3f1sU2UcbgbGyGosNHRj/Xuetdr161lKgPEaZQvMSDOaPgIg+DH1CEYJCQwkaGEIIFgIgYQNRgSY6LRxRCjJkbgLxORBNSAxmDwI8QYkBhBx8Yq23nPe+/bvb1ePza2rKTvkzSB9npre02f9/m9v9/zJOzlebiGpal4xZc0Adny3AoFJI3b7vZnjabZjYbXXZn0/AZRNz8429jZ1mpsWtk8N9f7xzUZdPMYrndIvlK85JxxAfNhVJXmIb+8KH8LdPlxu9eAgIBA4aDMMqzIut93CuEZ17viNkn1M34/DCt5nkBI6lNI7nTliM1EZzhXyn2ln6id9+CtRi/peTZLjX1klLjZ6VyZLENvHnt1cizcl60xzSkEI6ord/PHrG9Z3Ni+ernxavtq45nmJkOT/EYkGEh2e2OOes2Kh4na3rWhVc9ZqrR8zodpbEr5m3bPJ4qTsOW/MDJWE5TmFx1ZBwONIvZSQKCAAScp80fq+xz7mxfhmX09lpFIlCJkRk0W2LnhYtXvqmYp4IyvNSQf6idFy52Mnrsj2/4kU+soscfDwV76tDsyqemQXN3N1HTShzxUfV+yBG8q9HzGy7asfeyhneufNh595H4SvIHu7njEUtOwEW2IhY0d5uN7X1pz2Ty8xLyNkT0e3Xxv8xAhCgtRdNHTNLDzQ7xvewFBHriueD8snQtWrDSK9GNsXZCAk6IjbeVHWM9ST4BicVgbLX4NBQQKfVWdksaVlbR/Nglk22Caz2o1ZY+lJv21VMUdse6X1uTT2IJOXt5xLaludeUb2w/tZTidcWrpMFscxMMqm8GOOZB0n7ti3BVTTfdyzzXqo6HT5O8EA7Mx35teVpZ2O73e9lXLFs+afjvp8oa3N29DKvmqjMXzZ5Ams6aZd14Oyf6vtYD3wlA4omVSzNhPh60sbEfhDpfPNUO5n4zTWfagu6zFEjEs+bcoSFuXf7d8z5UlontcQECgAEpg1XexTOc8XaYOEQ/oHFGJNmXdYQ+EwN9lyp0qywxErZzkCPQ77pwX7CliUP9sTxbnhUq0iDp4tr+anErUpaUlibpwsIcPzKivUTETvRZKF/7f+Rq1SG53IOBxn8BzWhbNN6bEI0ZYqU557vTb6kgJHC5lKInHhoGk8ZkhOGWovyvo5ofiRAc/RtbMz3o/Rn4QK0pCPWBHGpKPEw/2kHzKauCSz5CZc2v++ayl2JXfyM2yHP3Dqt4ol+i1K7wyfEg5jwWluVjdjC5ykcMtICAwQupaWugUmpFjj+8wVIf59LLcylp6i5Kyy0622bKXU8bLzB98eneZvTzLUqdggJE2khUO/kCfp9mJesL4W66CUHnlC+eysrLSl8e7XJVTJ0UO1mryefZjnckuNabJ96BRzFTixu721caypjmG112RQsT4t674KUEPaxn3l2hIfh2z35j3LuCvHfoTyv1+/1iU4WHqAiMbGJigAoB5dfQ4IC0OPQ4Y1cN+sjXqJy8lqV9qoJXMuZOytbIVfQx47+YN/u7vYxFBxrR0+Rg1qDlDFwh/kmtqqmdrASGfJsfo8uckcx0BJMQZTdqJG+x4EUKCJkaRICYgIDBigDGGqYYOkEavgRHDryiN0yCQbOr4K94KtC4kvUYJ/4TT8V6v9yaUtG0hHi40utnDOBACwS06PslA1NU8SZsvtKdGk7phJ5p0J6MK2nz8bXY+VVXHZPNMN19LM5rENMl/YPOq5fu2rWsh41i6TU2PoCI8QoxfVGkGPlPxTXeNwuKAXtMy8XEICAjccICisZPdQNQcSCHT6Au8uGEWQtSvqZaSdqIheZr9WDSd2UrO/5D7da8nvftaauNUeIeNqJkSn8ARda9v4oSuhli4j6lpeH83mOoa+8vm4+/kV4mQX4hFgoa7cvxG/P/gjg3vLV0wK01NF9D+60X0DUSDgVnimy4gICBwgwP+wGzMajAdxtjTc4jVK+HDAZIBEQ77vkhXsns9k9cV9GppvuG0fA7FSNOa/iPuVISolXP0lFBQCaKmS0oS8YiawOgWR+hGvEZNjC4vB1F35EXSyJ32Vz3F7tvV1nqycXLMkP2ewm+cggUqSsWCtAUEBARubMAsBft7g23EsWdjs3hMlNqhvlkUoss2U83bh7KbE4Hz9qIwsqCk/hErrZsEzO+NX3GRqMuKrsl1eh8fwAG/bzXgSVDFnbUbnZ07Ivvv5e9vbprzE4uztC0yyK1Gk0gUJmxEnRT3QLcdhnCm+HiuUTkBAQEBgQIHcftKt8/Mlwje4InYijNUjkLNJY/R5E2pZBhY4EDUoxgZp7iDBQKSdV7pTabYmatZPBLs5E57qby8zJgU0Xp4NY18ahieVFWO66FE/WkWJb3damAjjXRJzJwypao+onYhKYuRMLzFsX+N0SzMVOtWFvW1qZOincxWlBL0Stispo1A4TPQlLnoYKcjch+QTurhU9lIBds+VC51AgICAgIjAGJYoil7BppnDJMVNtbFnMpg8sH7f7s4EwYnkxGU0nn/bzYvnCRR2rlOxod0+UXSba0rfVwz2DmEcDTEUju9QajxsNozqrS0mxL1UWclrbxLXqup6u2P+dyVbSDlOLcAgK/4tPqo8eSSB4wnFs4zNq5sNta1LLp2a63WCULn/cSxmLGp64w2jxgRQhMbQkOoicm1YVDZX2TryBcQEBAQKHAw0oT5B4m5zO/HvxtmGoT0qH93qqFIf/nVnrhFlLPPNxEe3vYFAI7nfbFB8sxmFHvPsX7jim/hQBZPibK0RrL8HneX+XgvJepjDkp6Hzu3/THSiW5buGAEy1tVQUxO9m9dCzcy4kqGvwWFDdUNlzBybtWn2t7TlwOqdkhSgPiph+R1GCuyKhbyaads8sE0CGJmGqq+wMe9BAQEBBzxP8SzVLqZ3G40AAAAAElFTkSuQmCC);
background-attachment: fixed;
background-position: bottom left;
background-repeat: no-repeat;
}
@font-face {
font-family: GangOfThree;
src: url(data:font/opentype;base64,AAEAAAALAIAAAwAwT1MvMkCdmMYAAAE4AAAAVmNtYXBe0q0dAAALxAAABqBnYXNw//8AAwAAVWgAAAAIZ2x5ZmpKN28AABeAAAApRGhlYWTjYUA1AAAAvAAAADZoaGVhDO8JUQAAAPQAAAAkaG10eN+THY4AAAGQAAAKNGxvY2FasmWGAAASZAAABRxtYXhwBvYAkAAAARgAAAAgbmFtZWNnse4AAEDEAAABwHBvc3RvUMyaAABChAAAEuMAAQAAAAEAACI5PwZfDzz1AAsIAAAAAAC81WDhAAAAAMIClEv/xv6bBaUHcAAAAAkAAQAAAAAAAAABAAAHPv5OAEMIwP/G/7UFpQABAAAAAAAAAAAAAAAAAAACjQABAAACjQA8AAQAIgAEAAIAEAAvAEIAAAQMAAAAAgABAAEECgGQAAUACAWaBTMAAAEbBZoFMwAAA9EAZgISAAACAAAAAAAAAAAAAAAChwAAAAAAAAAAAAAAAEhMICAAQAAg+wIF0/5RATMHPgGyQAAAHwAAAAAAAAYAAQAAAAAAAjkAAAI5AAAB8QBgAlYARQRzAAAEBAAlBx0AAASPAEMBYQBFAnIAggJyAIIDHQAABKwAAAKHADUCywBBAkcAjQKkAE8ETgBEBE4BHAROAFMESwBCBE4APQROAEsETgBMBE4AUAROAFgETgBPAkcAjQKHADUErAAABKwAAASsAAAD+wA5CB8AAAUaAA4EfgBBBN8ANQTBAC0EUwA6BAwAMgUOACsEqQA4AroANQK6ADkEkwA0BAsAJgV7AC8EtQAyBN8AMAR5AC4E6wAxBI8ADwRYACcD9wAoBNsAIAUXAAMFq//8BOz//wQ7AAMEhgArAjkAAAI5AAACOQAAA8EAAARzAAACVAB0BRoADgR+AEEE3wA1BMEALQSLADsEDAAyBQ4AKwSpADgByQBSAroAOQSTADQECwAmBXsALwS1ADIE3wAwBHkALgTrADEEjwAPBFgAJwP3ACgE2wAgBRcAAwWr//wE7P//BDsAAwSGACsCrAAAAhQAAAKsAAAErAAABRoADgVWAAAE3wA1BIsAOwS1ADIE3wAwBNsAIAUaAA4FGgARBRoADgUaAA4FGgAOBHMAAATfADUEiwA7BIsAOwSLADsEiwA7AckAUgHJ/94ByQArAcn/xgS1ADIE3wAwBN8AMATfADAE3wAwBN8AMATbACAE2wAgBNsAIATbACAEcwAAAzMAAARzAAAEcwAABHMAAALNAAAETAAABIUAQwXlAAAF5QAACAAAAAJUAHQCgwAZBGQAAAXAAAMGOQAABbQAAARkAAAEZAAABGQAAARzAAAEnAAAA/QAAAW0AAAGlgAABGQAAAIxAAAC9gAAAuwAAAYlAAAFwAADBOMAAAP7ADkB/gBNBKwAAARkAAAEcwAABGQAAATlAAADtwBIA7cAZQgAAAAFGgARBRoADgTfADAFeAAuBXgALgRzAAAIAAAAAlYARQJWAEUBYQBFAWEARQRkAAAD9AAABAAAAAVWAAABVgAABIYATwKqAAACqgAABAAAAAQAAAAEcwAAAjkAAAHHAAACqgAACAAAAAUaAA4EiwA7BRoADgSLADsEiwA7AckAUgHJACsByf/GAcn/3gTfADAE3wAwBN8AMATbACAE2wAgBNsAIAHJAFICvgCAAtsAAgKqAAACqgAAAqoAAAKqAAADHwDfAqoAAAKqAAACqgAABHMAAAHHAAAFVgAABAAAAATjAAAEAAAAAhQAAAXHAAAEcwAABVYAAAQAAAAFVgAABHMAAASsAAAErAAAAqoAAAKqAAACqgAABqwAAAasAAAGrAAABHMAAAY5AAAEcwAAAjkAAAVWAAAEAAAABccAAAQAAAAFxwAABAAAAARzAAAEawAAAqoAAAVWAAAEcwAABVYAAARzAAAFxwAABOsAAAXHAAAFVgAABHMAAAVWAAAEcwAABHMAAAHHAAAEcwAAAlUAAARzAAACrAAABccAAARzAAAFxwAABHMAAAY5AAAEcwAABccAAAKqAAAFxwAAAqoAAAVWAAAEAAAABOMAAAI5AAAE4wAAAwAAAAXHAAAEcwAABccAAARzAAAE4wAABAAAAATjAAAEAAAABGgAAAY5AAAGYgAABKAAAAR0AAADkQAABPAAAAMpAAAFMAAABGsAAAQAAAAC6wAACMAAAAgAAAAEAAAACAAAAAQAAAAIAAAABAAAAAQAAAAH1QAABcAAAASrAAAE1QAABKwAAATVAAAE1QAABasAAAUAAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAFqwAABasAAAWrAAAF1QAABNUAAAgAAAAH6wAAB+sAAAfrAAAH6wAABNUAAATVAAAE1QAACCsAAAhrAAAHVQAABgAAAAYAAAAEQAAABUAAAATAAAAEFQAABAAAAAYAAAAF4QAAA40AAATVAAABgAAAAtUAAAcVAAAClgAABNUAAALWAAAC1gAABNUAAALWAAAFVgAABHMAAAXHAAAEAAAABccAAAQAAAAFVgAABHMAAAVWAAAEcwAABVYAAARzAAAGOQAABHMAAAY5AAAEcwAABjkAAARzAAAFxwAABHMAAAXHAAAEcwAAAjkAAAI5AAACOQAAAjkAAAI5AAACOQAAAjkAAAHHAAAEAAAAAccAAAVWAAAEAAAABAAAAARzAAABxwAABccAAARzAAAFyQAABHMAAAY5AAAEcwAABjkAAARzAAAFxwAAAqoAAAVWAAAEAAAABOMAAAI5AAAFxwAABHMAAAXHAAAEcwAABccAAARzAAAFxwAABHMAAAeNAAAFxwAABVYAAAQAAAABxwAABVYAAARzAAAIAAAABx0AAAY5AAAE4wAAAjkAAAeNAAAFxwAAB40AAAXHAAAHjQAABccAAAVWAAAEAAAAAccAAAKqAAAEcwAABM0AAAasAAAGrAAABqwAAAasAAACqgAAAqoAAAKqAAACqgAABVcAAAZGAAAGtAAAAxIAAAYyAAAG2AAABgUAAAHHAAAFVgAABVYAAAVYAAAFVgAABOMAAAXHAAACOQAABVYAAAVYAAAGqgAABccAAAUzAAAGOQAABccAAAVWAAAE8gAABOMAAAVWAAAFVgAABq8AAAX7AAACOQAABVYAAASgAAADkQAABHMAAAHHAAAEYAAABJoAAAQAAAADhwAABHMAAARzAAABxwAABAAAAAQAAAAEnAAABAAAAAOVAAAEcwAABI0AAAPbAAAEYAAABDMAAAW0AAAGPwAAAccAAARgAAAEcwAABGAAAAY/AAAFVwAABusAAARVAAAFwAAABVYAAAI5AAACOQAABAAAAAh1AAAIFQAABtUAAASpAAAFFQAABcAAAAVWAAAFQAAABVYAAARVAAAFawAABVYAAAdjAAAE1QAABcAAAAXAAAAEqQAABUAAAAaqAAAFxwAABjkAAAXAAAAFVgAABccAAATjAAAFFQAABhUAAAVWAAAF6wAABVUAAAdVAAAHgAAABlUAAAcVAAAFQAAABcAAAAgVAAAFxwAABHMAAASVAAAEQAAAAusAAASrAAAEcwAABVoAAAOrAAAEeAAABHgAAAOAAAAEqwAABYAAAARrAAAEcwAABFUAAARzAAAEAAAAA6oAAAQAAAAGlQAABAAAAASVAAAEKwAABmsAAAaVAAAFAAAABcAAAAQrAAAEFQAABgAAAARVAAAEcwAABHMAAALrAAAEFQAABAAAAAHHAAACOQAAAccAAAdAAAAGgAAABHMAAAOAAAAEAAAABGsAAAPpAAADSgAACAAAAAiVAAAFhQAAAAAAAgABAAAAAAAUAAMAAQAAARoAAAEGAAABAAAAAAAAAAECAAAAAgAAAAAAAAAAAAAAAAAAAAEAAAMEBQYHCAkKCwwNDg8QERITFBUWFxgZGhscHR4fICEiIyQlJicoKSorLC0uLzAxMjM0NTY3ODk6Ozw9Pj9AQUJDREVGR0hJSktMTU5PUFFSU1RVVldYWVpbXF1eX2BhAGJjZGVmZ2hpamtsbW5vcHFyc3R1dnd4eXp7fH1+f4CBgoOEhYaHiImKi4yNjo+QkZKTlJWWl5iZmpucnZ6foKGio6SlpqeoqaqrA6ytrq+wsbKztLW2t7i5uru8vb6/wMHCw8TFxsfIycrLzM3Oz9AA0dLT1NXW19jZ2tvc3d7fAAQFhgAAANAAgAAGAFAAfgCjAR8BLwF/AZIB/wLHAskC3QN+A4oDjAOSA5gDoQOmA7ADtQO/A84EDARPBFwEXwSRHoUe8yAVIB4gIiAmIDAgMyA6IDwgPiBEIH8gpCCnIKwhBSETIRYhIiEmIS4hXiGVIagiAiIGIg8iEiIVIhoiHyIpIisiSCJhImUjAiMQIyElACUCJQwlECUUJRglHCUkJSwlNCU8JWwlgCWEJYgljCWTJaElrCWyJbolvCXEJcslzyXZJeYmPCZAJkImYCZjJmYma/AC8AX7Av//AAAAIACgAKUBIAEwAZIB+gLGAskC2AN+A4QDjAOOA5MDmQOjA6cDsQO2A8AEAQQOBFEEXgSQHoAe8iATIBcgICAmIDAgMiA5IDwgPiBEIH8goyCnIKwhBSETIRYhIiEmIS4hWyGQIagiAiIGIg8iESIVIhkiHiIpIisiSCJgImQjAiMQIyAlACUCJQwlECUUJRglHCUkJSwlNCU8JVAlgCWEJYgljCWQJaAlqiWyJbolvCXEJcolzyXYJeYmOiZAJkImYCZjJmUmavAB8AT7Af///+MAAAAAAIQAAP8U/9wAAP4PAAD8oAAA/mn+aAAA/mYAAP5kAAD+YQAA/iv+Kv4p/ij9+ONd4vEAAAAAAADgheCV4VvghOD54ajgd+C3AADgkOAQ4IrgfeF132rfeeC64I7fqN+W3pbeot6LAADepgAAAADfF95x3l8AAN4w3kDeM94k3EbcRdw83DncNtwz3DDcKdwi3BvcFNwB2+7b69vo2+Xb4gAAAADbxtu/277btwAA28Xbpduv20XbQttB2yTbItsh2x4QvhHpBb4AAQAAAM4A1AAAAcYAAAAAAmAAAAJgAAACaAAAAAACcAAAAngAAAJ8AAACggAAAAAAAAAAAAAAAAAAApAClAKiAAAAAAAAAAAAAAAAAAAAAAKWAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAJ8AAACfAJ+AAAAAAAAAnoAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAACUgJUAAAAAAAAAAACUAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAAwCjAIQAhQCWAOYAhgCOAIsAnQCpAKQAEACKAQAAgwCTAPAA8QCNAJcAiADCANwA7wCeAKoA8wDyAPQAogCsAMgAxgCtAGIAYwCQAGQAygBlAMcAyQDOAMsAzADNAOcAZgDRAM8A0ACuAGcA7gCRANQA0gDTAGgA6QDrAIkAagBpAGsAbQBsAG4AoABvAHEAcAByAHMAdQB0AHYAdwDoAHgAegB5AHsAfQB8ALcAoQB/AH4AgACBAOoA7AC5AZYBlwECAQMBBAEFAPsA/AGYAZkBmgGbAP0A/gEGAQcBCAD/AZwBnQGeAZ8BoAGhAQkBCgELAQwBogGjAPYA9wD4ANUBigGLAbQBtQG2AbcBuAENAQ4BuQG6AQ8BEAERARIA4ADhARMBFAG7AbwBFQEWAYwBvQG+Ab8BwAHBAcIBFwEYAK8AsAEZARoBwwHEARsBHAEdAR4BxQHGAPkA+gDiAOMBHwEgASEBIgHHAcgByQHKAcsBzAHNAc4BIwEkASUBJgHPAdAB0QHSAdMB1AC6AScBKAEpASoA5ADlAdUA1gDfANkA2gDbAN4A1wDdAe8B8AHxAdwB8gHzAfQBKwH7AfwB/QH+ASwCCAIJAgoBLQEuAhUCFgEvATACjAIhAiIBMQEyAiMBMwIkAiUCJgInAigCKQIqAisAsQCyAooBNAC1ALYAwwHlALMAtADEAIIAwQCHAPUB5wCZAO0AwgClAJIBPwCPAUEBdgGRAZIBkwF3ALgBfAAAABYAFgAWABYALABAAEAAngCeANoA6AECARwBHAEcASwBPAFKAVoBmAGyAd4CFAIyAl4CigKiAtwDBgMcAzIDMgMyAzIDaANoA5YD1AQGBDAEXAR8BKoE1gTyBRAFNgVWBYgFtAXYBggGOAZyBqYGxAbqBxAHSgdyB5QHwAfAB8AHwAfAB8AH0Af+CDwIbgiYCMQI5AkSCT4JTglsCZIJsgnkChAKNApkCpQKzgsCCyALRgtsC6YLzgvwDBwMHAwcDBwMHAxYDFgMmAzMDQoNPA1wDXwNiA2UDaANrA2sDbgNxA3QDdwN6A30DgAODg4aDiYOMg4+DkoOVg5iDm4Oeg6GDpIOkg6SDpIOkg6SDpIOkg7EDsQOxA7EDtQO6g7qDygPKA8oDygPKA8oDygPKA8oDygPKA8oDygPKA8oDygPZg9mD5wPsg+yD7IPsg+yD7IP2BAAEAAQNhB2EKwQ7BEsESwRLBFAEVQRYhFwEXARcBFwEXARcBG0EbQRtBG0EbQRtBG0EbQRtBG0EfASKhJgEpoSzhLmEwITHhM2E2ITkhO+E+4UIhRSFGIUdhSOFI4UjhSOFI4UohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUohSiFKIUogACAQAAAAUABQAAAwAHAAAhESERJSERIQEABAD8IAPA/EAFAPsAIATAAAAAAAIAYAAEAa4FUAADAAcAABMhAycXMxEnYAFOWvIB8fIFUPwbA2X++wEAAAAAAgBFA+ACGAV3AAMABwAAEzMRIwEzESNF09MBEMPDBXf+aQGX/mkAAAMAJf83A9UF9wAIABEAOwAAARE2NzY1NCcmAwYHBhUUFxYXFSYnJjU0NzY3NTMVFhcWFwcmJyYnERYXFhUUBwYHESMRJicmJzcWFxYXAkIlH0NCH5Q3K0NDKzeneJCReaVusIA+JfMQGjRClG+QkW+TbsKKQCPyEBo+VQJA/ssMGDFGRjEXAikMHzFHRTEgDMYOWmqYlmtaDtLQC18vN1AYEyUJ/qsTUmqYlmpSE/74AQIEZy43UBcULQQAAQBD/90EUQVPACAAAAEiFhclAyMCNxUEAzU3JyUGFjcXBicuAScRNhcmEiUzEwIHoxypAiUIUAJd/ss1pKX+egpp1GTs3F6DCxh5ehsBmIckBDPUDgT+9P60Af0kAX9zcAIC/EUZ+zg0FoF1AYqeCBoB4gv+5AAAAQBFA+ABGAV3AAMAABMzESNF09MFd/5pAAAAAAEAgv7SAiQGbAAJAAABAhEQEwcCERATAiTukIm7vAZs/ev92/5W/ksBAekB3AHdAdEAAAABAIL+0gIkBmwACQAAExIREAM3EhEQA4LukIm7vP7SAhUCJQGqAbUB/hf+JP4j/i8AAAAAAQA1/8gB1AHOAAMAABMXAyXj8Z3+/gHOXP5WUwAAAAABAEECtQIUA7cAAwAAEyUDIW4Bpi3+WgO2Af7+AAAAAAEAjQBkAY4BoAADAAATIREljgEA/v8BoP7EAQABAE/+pwJQBjoAAwAACQEnAQJQ/ltcAVMF6/i8FQd+AAMARP/2A/oFUAALABcAHwAAEyEWFwMWJyUGNxMmASYXAxY3IRY3EzYHBhc2BxYnBjfOAqt2BwEFhP1ThQoBBgFNcwoBD2ABI1kDAQd5+3yCExOCfxAFUBCO++qgAwEKoAQbk/7+ATv9PUQKDkwCuUEBtBkW7PMdEOYAAAABARz//wMbBVIACwAAATMWFREzAwURFxEjAWznW20B/gJ6VAVSDcP8jP7zAgEQAQMtAAAAAQBTAAAD7QVTABUAABIXBTYXFQYHASU1MxElEQEnBQYPARNboAKNYwICTf34AYvM/GYCgQP+lCoC4AMFUwEBAp/6ZDj9+wFu/ngCASgCkY4DAX4CAQsAAAEAQv/1A/UFTwAcAAATITIXEwYHFgcDFgchBj8CFyETBTclEyEPATUmzgK1cAEBBVtfAQICc/01cwwC8wMBtQL+hgEBdwL+SAH0AQVPjv5cSBoGVP44mAELlPIBYQElAfgBAQtPAdqCAAAAAAIAPQAABC4FUAAKAA0AAAEzETMRJwcjNSERCQEhAvTuTFEB2P05AsX+gAF/BVD8mv7pAdTOARwB7v4SAAEAS//+A/wFTwAXAAATBREhFyUWFxEGByUmJzUzBjczFic2ByFOA6f9SAECbk8BCW79OGwG6hWt8G8PDk79cQVPAv7z3wENeP22jwYDDHHYXQoOnaICAAACAEwAAAP2BVIAEQAVAAABAyEGFxUhFhcRBgchJjURNjcTESUDA54C/ck4CQJYXAwKUv0IVgFdjAH2AQVR/uMBfH4JmP4wxwECmQQYnQL83v7XAQEoAAAAAQBQ//8D9QVQAAgAABMhEQElASUVI1EDpP5N/uwByv423gVQ/vT7uwIEQgKQAAAAAwBYAAAD/QVTABUAGQAdAAATIRYHAxYHFgcRFgchIjcTNjcmNxEmARUhNwERIRG0AvFVAgEDUlUDAVv9D1cBAQJKTQEBARMBhQH+hAF8BVMBnv51YhkTbf6ArQGeAYxgGyBmAYeg/vH9/f3n/vMBDQAAAAACAE8AAAP5BVIAEQAVAAAzEyEyJzUhJicRNjclFhURBgcDEQUTpQQCNjkK/ahcCwlRAvlXAlyN/goBAR58fgmZAc/HAQEDmfvonAIDIgEoAv7aAAACAI0AZAGOA4gAAwAHAAATIRElFyERJY4BAP7/AQEA/v8DiP7EAa3+xAEAAAIANf/IAdQDhwADAAcAABMhESUfAQMlxgEA/v8e8Z3+/gOH/sQBflz+VlMAAgA5AAMDwQVPABgAHAAAEyEWFxMGDwEGFQclNzQ3JTc2BycmFyU1NgEhFQXqAnJiAQIYNK5CAf7dAUABAAEbo4FfBf75IgEMARr+4wVPHVz+yEs5p0B4eALoREH+SksJARNfA+lu+7b6BAAAAgAO/9wFDQW0AA4AEgAAARcHIQMHAQUJASUBJRMhExcBJwJS9h0BjCnYAVf+9/6g/nf+8wGE/uUWAXbOmf7lmgW0XWD+2AH8aVsDrPxcUgOcAQEk/MGo/uSmAAACAEH/vgRHBU8AHgAjAAATIR4BBgc2FxEOAQcGJzcWNgMFFQIlNRYnNSM3FzUjIRU3NidlAnDJVhCH0hgLg17c7GTUaQr+hjX+y10PUAFmagFvgYgMBU8LqMCUCJ7+THWBFjRi+0NFATcC9v6BJP0Bn63/Au3gHEl7AAAAAQA1//IEtgVNABkAAAEEEyEmByEOAR4BJDcXDgEEJAISPwEjPwIDmgEKEP73BIP+nG4LiaEBGniznML+wf743Bgux+4QFywFTT/+tGkK7vTXWxyo35dlBIABWwG8P1lfW3IAAAIALf/zBJsFTwANABMAABMhFxEWCgEEJRM3JxEjIREWPgEDXQNywAxT7f7j/f8CvnBgAYGY3EoOBU8B/aCZ/uf+9T4MARwCOALR/O8Vh8sB1AAAAAEAOv/1BC0FUgAWAAATIQMFFSEDJQYWFyEDBC4BJzUHExc1B2oDw1D+GgIVMP4UD1NhAW4x/keNmRSlKYewBVL+0gKV/vAB2IsB/uUKS62o6QEBEgGcAQABADL/5gPeBVAADQAAEyEDIQM3BQMlEwURNyFjA3tA/jIBJAFxOP6gAf7Ukf8ABVD+4f60iEv+10b95j8ECEMAAQAr/3oE0AVIABcAABMhAyERBjchJwcRBREHBTUHBS4BJxE3BZEEHTL9MQuiAWYB8AIXAf7eb/5TkX4BsP76BUj+1P2FiBPrAQEcAfzPTjjuaAEVs6gCVVgBAAABADj/4QSYBUwAFgAAEyERJRElETMTIxEOAiMDNjcRJScRBTgBLgG4AS40GEweWr9gAlwW/pFQ/tQFTP4wAwHJAv4p/u3+SFo7HwEIBkYBFwF//TUzAAAAAQA1//4CdgVQAAwAABMhAyMRMwMhExcTNyFVAiEoWHAQ/d8bdQJ+/vMFUP7g/OX+6QEZAQLTRwABADn/AQJ/BU0ADAAAEyERDgEEBwM+AQM3IakB1gU5/u7eGIygDoj+hgVN++uIx9EXASwMzQLkRgAAAAABADT/5QSSBW8AEAAAARcBEhY3Ew4BJgEHESERIRMDW8/+ROB/WG1txcb+9D3+4wEcAQVvz/5B/mkYSv7zdRVIAfZC/h4FUf4VAAAAAQAmAAMD3gVTAA8AABMhAxcPARUlAyUTMzUjPwGYASkBqh2FAhYf/GctP2IaTAVT/TUC8AFZAf7GAgE1WfQBAAEAL//pBS4FsAAZAAABBRUhFhcDDgEjERYDESMRBRMjEQUDNyMTIQIWATwBU3wNAjO4h1INqv6+AYT+vgFti1MBlAWwA2ITd/x12HUBLwcBigGB/BA5BCn7/ykD8UEBJwAAAAABADL/7wSDBU0AFgAAEyEHNx4BHwEDIREWBicRNic2JgAnESE0ASIBIr+3Yg4BASAHk+RkEAE9/sGQ/t0FTdhUM3+QKAHs+55NrQwBGwh5RJ8BCSj8UAAAAgAw//wEsgVTAAwAEAAAARU3IRYDEQYHIQYnEQURIREBVk4ClHoHGKP9BaobASYCLgVTg4Mi/sr8e24FB5sEf+r8/gMCAAAAAgAu//IEQgVMABIAFgAAARYXAwYnIScRDgEnAxYnETcnEwETBREDpZgFAg6X/mVgGJ6tAUgHnOs7AS8BAXsFTByu/gScA6z+OphJAgEHEdoCE1cBAR3+4v7+AQEDAAAAAgAx/psEvQVSABEAFgAAEyEWBwMGByEFAyUTBSYnETcHJRE3IRF2A7eQDAELmv7JAZ07/dU1/ntoIHl7ASpEAeoFUkHC/GywCln+82UBAQEP1wL9RAEF/IB9AwMAAAAAAgAP/9AEdgVQABgAHgAAEyEWFwMOAQcXFhcDJyYDJwcDBREnNxM3ByERJTY9AW0DXlsiAh1ujU9YoRehna8/nQH+6G5sAonYAWgBK20FUAtq/m6LXz5+ihX+zB4gASh4Sv6bAgEK60QBpUwB/n92KFmKAAABACf//wQ7BVMAGgAAEyUeARUFNAcjARYHBgclLgEnJRY3BTYnATcjXwLmeUf++rHOAnVGNDTN/gdYZhwBEgtRAQs9Uf23kLgFUgEe0k80Xg79mFrViBIBHaV6XXIEAQ5KAjxyAAAAAAEAKP/KA9IFUAANAAATIQMhEQYXAwYmJxE3JUYDjCX+vRF3SYm9A4H+aQVQ/tT9d5cc/uYEupkCyz4BAAEAIP/jBKcFYAAQAAABAhIWJQMFEQU1DwEEJAITNwF1OVO2AUEBASL+3jQ//uf+4boREQVg/fL+mtA2BAAR+uIdpbUOBagCAgHluQABAAP/YQUJBWEADwAACQE2EicHEyUWCgEHJxcFAQEqAWy3bA2SIQGVOUyoqJBE/s/+EwVh/AGUAWLRAQEpAuj+Cf6xyTe/cwWwAAAAAf/8/2oFpQVXABwAAAETPgEnIxMFEz4BJyMTBRICBgcnEwUDBgcnEwUBAR+oeiY1dC0BWapKRjRsMQE7W09xcVBD/uN7KVhCOP70/sQFV/zIZ9vIASYB/Oku/c8BHgH+Cv62yGM3/sdoAjOCRSD+3HcFqAAB////mwTqBXYAEAAACQE2EwUCAwEHAQ4BByckNwEBCgGysGcBF4X+AWv8/sNfxajOAVej/iEFdv22/QEycP6k/rz+GckBsXGoXdrhqgJ/AAEAA/+GBBQFTQAMAAATATYSJwUKAQAHAyUB3AF8aFETARYF2f7D33cBAf5fBU39F2kBX/kL/e7+W/6xjgEa0gMjAAAAAQAr//MEaQVPABQAABMhAwQAByU2NxcOASchBi4BNgA3IZADmCH+5v6aEQGYTy7eU7SJ/hZOXxQgASjX/d4FT/7Znf4+pAEbXJO1Yg0HXKm6Abu4AAAAAAEAdAXjAewHOgADAAABByU3AexU/tyMBkZj6m0AAAAAAgAO/9wFDQW0AA4AEgAAARcHIQMHAQUJASUBJRMhExcBJwJS9h0BjCnYAVf+9/6g/nf+8wGE/uUWAXbOmf7lmgW0XWD+2AH8aVsDrPxcUgOcAQEk/MGo/uSmAAACAEH/vgRHBU8AHgAjAAATIR4BBgc2FxEOAQcGJzcWNgMFFQIlNRYnNSM3FzUjIRU3NidlAnDJVhCH0hgLg17c7GTUaQr+hjX+y10PUAFmagFvgYgMBU8LqMCUCJ7+THWBFjRi+0NFATcC9v6BJP0Bn63/Au3gHEl7AAAAAQA1//IEtgVNABkAAAEEEyEmByEOAR4BJDcXDgEEJAISPwEjPwIDmgEKEP73BIP+nG4LiaEBGniznML+wf743Bgux+4QFywFTT/+tGkK7vTXWxyo35dlBIABWwG8P1lfW3IAAAIALf/zBJsFTwANABMAABMhFxEWCgEEJRM3JxEjIREWPgEDXQNywAxT7f7j/f8CvnBgAYGY3EoOBU8B/aCZ/uf+9T4MARwCOALR/O8Vh8sB1AAAAAEAO/+pBH0FSAAUAAATIREFFQUDIRElEwUDNxEjEzcnNwU7A939xQHEIP5cAkxU++4gdnwcYgGh/tgFSP7jAZ8B/u3+n0T+0oMBLhQBigEBAXQ7AQAAAAABADL/5gPeBVAADQAAEyEDIQM3BQMlEwURNyFjA3tA/jIBJAFxOP6gAf7Ukf8ABVD+4f60iEv+10b95j8ECEMAAQAr/3oE0AVIABcAABMhAyERBjchJwcRBREHBTUHBS4BJxE3BZEEHTL9MQuiAWYB8AIXAf7eb/5TkX4BsP76BUj+1P2FiBPrAQEcAfzPTjjuaAEVs6gCVVgBAAABADj/4QSYBUwAFgAAEyERJRElETMTIxEOAiMDNjcRJScRBTgBLgG4AS40GEweWr9gAlwW/pFQ/tQFTP4wAwHJAv4p/u3+SFo7HwEIBkYBFwF//TUzAAAAAQBSAAEBgQVXAAMAAAEDIQMBgQH+0wEFV/qqBSgAAAABADn/AQJ/BU0ADAAAEyERDgEEBwM+AQM3IakB1gU5/u7eGIygDoj+hgVN++uIx9EXASwMzQLkRgAAAAABADT/5QSSBW8AEAAAARcBEhY3Ew4BJgEHESERIRMDW8/+ROB/WG1txcb+9D3+4wEcAQVvz/5B/mkYSv7zdRVIAfZC/h4FUf4VAAAAAQAmAAMD3gVTAA8AABMhAxcPARUlAyUTMzUjPwGYASkBqh2FAhYf/GctP2IaTAVT/TUC8AFZAf7GAgE1WfQBAAEAL//pBS4FsAAZAAABBRUhFhcDDgEjERYDESMRBRMjEQUDNyMTIQIWATwBU3wNAjO4h1INqv6+AYT+vgFti1MBlAWwA2ITd/x12HUBLwcBigGB/BA5BCn7/ykD8UEBJwAAAAABADL/7wSDBU0AFgAAEyEHNx4BHwEDIREWBicRNic2JgAnESE0ASIBIr+3Yg4BASAHk+RkEAE9/sGQ/t0FTdhUM3+QKAHs+55NrQwBGwh5RJ8BCSj8UAAAAgAw//wEsgVTAAwAEAAAARU3IRYDEQYHIQYnEQURIREBVk4ClHoHGKP9BaobASYCLgVTg4Mi/sr8e24FB5sEf+r8/gMCAAAAAgAu//IEQgVMABIAFgAAARYXAwYnIScRDgEnAxYnETcnEwETBREDpZgFAg6X/mVgGJ6tAUgHnOs7AS8BAXsFTByu/gScA6z+OphJAgEHEdoCE1cBAR3+4v7+AQEDAAAAAgAx/psEvQVSABEAFgAAEyEWBwMGByEFAyUTBSYnETcHJRE3IRF2A7eQDAELmv7JAZ07/dU1/ntoIHl7ASpEAeoFUkHC/GywCln+82UBAQEP1wL9RAEF/IB9AwMAAAAAAgAP/9AEdgVQABgAHgAAEyEWFwMOAQcXFhcDJyYDJwcDBREnNxM3ByERJTY9AW0DXlsiAh1ujU9YoRehna8/nQH+6G5sAonYAWgBK20FUAtq/m6LXz5+ihX+zB4gASh4Sv6bAgEK60QBpUwB/n92KFmKAAABACf//wQ7BVMAGgAAEyUeARUFNAcjARYHBgclLgEnJRY3BTYnATcjXwLmeUf++rHOAnVGNDTN/gdYZhwBEgtRAQs9Uf23kLgFUgEe0k80Xg79mFrViBIBHaV6XXIEAQ5KAjxyAAAAAAEAKP/KA9IFUAANAAATIQMhEQYXAwYmJxE3JUYDjCX+vRF3SYm9A4H+aQVQ/tT9d5cc/uYEupkCyz4BAAEAIP/jBKcFYAAQAAABAhIWJQMFEQU1DwEEJAITNwF1OVO2AUEBASL+3jQ//uf+4boREQVg/fL+mtA2BAAR+uIdpbUOBagCAgHluQABAAP/YQUJBWEADwAACQE2EicHEyUWCgEHJxcFAQEqAWy3bA2SIQGVOUyoqJBE/s/+EwVh/AGUAWLRAQEpAuj+Cf6xyTe/cwWwAAAAAf/8/2oFpQVXABwAAAETPgEnIxMFEz4BJyMTBRICBgcnEwUDBgcnEwUBAR+oeiY1dC0BWapKRjRsMQE7W09xcVBD/uN7KVhCOP70/sQFV/zIZ9vIASYB/Oku/c8BHgH+Cv62yGM3/sdoAjOCRSD+3HcFqAAB////mwTqBXYAEAAACQE2EwUCAwEHAQ4BByckNwEBCgGysGcBF4X+AWv8/sNfxajOAVej/iEFdv22/QEycP6k/rz+GckBsXGoXdrhqgJ/AAEAA/+GBBQFTQAMAAATATYSJwUKAQAHAyUB3AF8aFETARYF2f7D33cBAf5fBU39F2kBX/kL/e7+W/6xjgEa0gMjAAAAAQAr//MEaQVPABQAABMhAwQAByU2NxcOASchBi4BNgA3IZADmCH+5v6aEQGYTy7eU7SJ/hZOXxQgASjX/d4FT/7Znf4+pAEbXJO1Yg0HXKm6Abu4AAAAAAQADv/cBQ0HBAAOABIAFgAaAAABFwchAwcBBQkBJQElEyETFwEnEwcnNzMXBycCUvYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5Zq4fXzpd+2DdQW0XWD+2AH8aVsDrPxcUgOcAQEk/MGo/uSmBXEZ5C4z4x0AAAIANf6fBLYFTQAZACEAAAEEEyEmByEOAR4BJDcXDgEEJAISPwEjPwIBNxYVFAUnJAOaAQoQ/vcEg/6cbguJoQEaeLOcwv7B/vjcGC7H7hAXLAFrfpb+7CUBHgVNP/60aQru9NdbHKjfl2UEgAFbAbw/WV9bcvqRVJhfghpdFwAAAgA7/6kEfQc6ABQAGAAAEyERBRUFAyERJRMFAzcRIxM3JzcFARcFJzsD3f3FAcQg/lwCTFT77iB2fBxiAaH+2AKOjP7cVAVI/uMBnwH+7f6fRP7SgwEuFAGKAQEBdDsBAxVt6WIAAAACADL/7wSDB28AFgAgAAATIQc3HgEfAQMhERYGJxE2JzYmACcRIQAHJxIXFjcXAic0ASIBIr+3Yg4BASAHk+RkEAE9/sGQ/t0BRUNLdOT1NUt/6AVN2FQzf5AoAez7nk2tDAEbCHlEnwEJKPxQBrfPiQEDf5TOiP7vmwAABAAw//wEsgcFAAwAEAAUABgAAAEVNyEWAxEGByEGJxEFESERAQcnPwEXBycBVk4ClHoHGKP9BaobASYCLv7KfXzpd+2DdQVTg4Mi/sr8e24FB5sEf+r8/gMCAeAZ4y4BM+MdAAMAIP/jBKcHBAAQABQAGAAAAQISFiUDBREFNQ8BBCQCEzclByc3MxcHJwF1OVO2AUEBASL+3jQ//uf+4boREQIdfXzpd+2DdQVg/fL+mtA2BAAR+uIdpbUOBagCAgHlueEZ4y4z4x3//wAO/9wFDQc6AiIARAAAAAMAjQHxAAD//wAR/9wFEAc6AiIARAMAAAMAQwEZAAD//wAO/9wFDQc6AiIARAAAAAMA1gFBAAD//wAO/9wFDQcEAiIARAAAAAMAjgFbAAD//wAO/9wFDQdwAiIARAAAAAMA1wE0AAD//wA1/p8EtgVNAiIARgAAAAMA3AEOAAD//wA7/6kEfQc6AiIASAAAAAMAjQFpAAD//wA7/6kEfQc6AiIASAAAAAMAQwC9AAD//wA7/6kEfQc6AiIASAAAAAMA1gDsAAD//wA7/6kEfQcEAiIASAAAAAMAjgEaAAD//wBSAAECDAc6AiIA1QAAAAIAjSAAAAD////eAAEBggc6AiIA1QEAAAMAQ/9qAAD//wArAAEBpQc6AiIA1QAAAEIA1sUAMzNAAAAA////xgABAhQHBAIiANUAAAACAI6tAAAA//8AMv/vBIMHcAIiAFEAAAADANcA5wAA//8AMP/8BLIHOgIiAFIAAAADAI0BwgAA//8AMP/8BLIHOgIiAFIAAAADAEMBBAAA//8AMP/8BLIHOgIiAFIAAAADANYBDQAA//8AMP/8BLIHBAIiAFIAAAADAI4BPAAA//8AMP/8BLIHcAIiAFIAAAADANcBHQAA//8AIP/jBKcHOgIiAFgAAAADAI0B5AAA//8AIP/jBKcHOgIiAFgAAAADAEMBAQAA//8AIP/jBKcHOgIiAFgAAAADANYBHAAA//8AIP/jBKcHBAIiAFgAAAADAI4BTQAAAAEAQ/++BFkFUwAXAAABBwYHEyUTAi0BEwMEEgYHBicDFjYmJScCwmf7AQH+5AECAh0BPHnSAQURoF7chwHUaQv+8FQENAIygPxcPwNiAZ80A/7o/roW/eG4FjREAS9MRd8B0QABAHQF4wHsBzoAAwAAARcFJwFgjP7cVAc6bepjAAAAAAIAGQXuAmcHBAADAAcAAAEHJzczFwcnARJ8fep27oR1BgwZ4y4z4x0AAAAAAgAD/+UFowW0ABoAHgAAAQMlASUTITcXByEDBRUhAyUGFhczAwQuASc1Ew8BFwHm1v7zAYT+5RYBdk/2HAKCUP6ZAZYw/pMPU2HwMf7FjZkUCy1ZhgHi/gNRA5wBASS9XV7+0gLY/vABPIsB/uYKSq2oTQHoA9QBAAAAAAIAA//lBaMFtAAaAB4AAAEDJQElEyE3FwchAwUVIQMlBhYXMwMELgEnNRMPARcB5tb+8wGE/uUWAXZP9hwCglD+mQGWMP6TD1Nh8DH+xY2ZFAstWYYB4v4DUQOcAQEkvV1e/tIC2P7wATyLAf7mCkqtqE0B6APUAQAAAAACADkAAwPBBU8AGAAcAAAlISYnAzY/ATY1NwUHFAcFBwY3FxYnBRUGASE1JQMQ/Y5iAQIYNK5CAQEjAUD/AAEbo4FfBQEHIv70/uYBHQMdXAE4SzmnQHh4AuhEQf5KSwkBE18D6W4ESvoEAAACAE0ABAGbBVAAAwAHAAAlIRMXJyMRFwGb/rJa8gHx8gQD5QNlAQUBAAAAAAIASAE8A1YEcQAGAA0AABMBFwkBBwElARcJAQcBSAGBWP7FATtY/n8BNQGBWP7FATtY/n8C5wGKX/67/rxNAY8bAYtg/rv+vEwBjwACAGUBPANzBHEABgANAAAJAScJATcBBQEnCQE3AQNz/n9YATv+xVgBgf7L/n9YATv+xVgBgQLL/nFNAUQBRGD+dh3+ckwBRAFFX/52AAAAAAMAEf/cBRAHOgAOABIAFgAAARcHIQMHAQUJASUBJRMhExcBJwEHJTcCVfYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5ZoBTVT+3IwFtF1g/tgB/GlbA6z8XFIDnAEBJPzBqP7kpgWsY+ptAAMADv/cBQ0HcAAOABIAHAAAARcHIQMHAQUJASUBJRMhExcBJxIHJxIXFjcXAicCUvYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5ZoPQ0t05PU2Sn7pBbRdYP7YAfxpWwOs/FxSA5wBAST8waj+5KYGGM6JAQN/lc+J/vCbAAAAAwAw//wEsgdvAAwAEAAaAAABFTchFgMRBgchBicRBREhEQAHJxIXFjcXAicBVk4ClHoHGKP9BaobASYCLv4pQ0tz5fQ2S3/oBVODgyL+yvx7bgUHmwR/6vz+AwIChs+JAQN/lM6I/u+bAAAAAgAu//4FSgVTAAMAIgAAAREhERMWByEGJxElFTchMhclAwUVJQMhBgcVFhcWFzcDJSYBVAEfugyF/j+qGwEmTgGFAQECIVD+qgGFMP6kAgEEGilh3jH+/4oELPz+AwL8THIDBZkEfz2DgwEB/tIDlQH+8B0aXl8pRgEB/uUCDgACAC7//gVKBVMAAwAiAAABESERExYHIQYnESUVNyEyFyUDBRUlAyEGBxUWFxYXNwMlJgFUAR+6DIX+P6obASZOAYUBAQIhUP6qAYUw/qQCAQQaKWHeMf7/igQs/P4DAvxMcgMFmQR/PYODAQH+0gOVAf7wHRpeXylGAQH+5QIOAAIARQPgAhgFdwADAAcAABMzESMBMxEjRdPTARDDwwV3/mkBl/5pAAACAEUD4AIYBXcAAwAHAAATMxEjATMRI0XT0wEQw8MFd/5pAZf+aQAAAQBFA+ABGAV3AAMAABMzESNF09MFd/5pAAAAAAEARQPgARgFdwADAAATMxEjRdPTBXf+aQAAAAABAE8AAgQhBUcALQAAEzY3NiEyFxEmIyIHBgchFSEGFRQXIRUhFhcWMzI3EQYjICcmJyM1MyY1NDcjNcUwb8QBGXhoYn6teSEYAjv9iwcBAnv9qx41ea19Y2h4/urFhCxnUgEEVQOHi3DFI/7hQHkhJJImKRAPlD80ekH+3yTGg6iUDg4qKJIAAwAO/9wFDQc6AA4AEgAaAAABFwchAwcBBQkBJQElEyETFwEnAQcnByc3FzcCUvYdAYwp2AFX/vf+oP53/vMBhP7lFgF2zpn+5ZoB5VOZmVTsAQEFtF1g/tgB/GlbA6z8XFIDnAEBJPzBqP7kpgWsY3p6Y/QBAQAAAgA7/6kEfQc6ABQAHAAAEyERBRUFAyERJRMFAzcRIxM3JzcFAQcnByc3Fzc7A939xQHEIP5cAkxU++4gdnwcYgGh/tgDClOZmVTsAQEFSP7jAZ8B/u3+n0T+0oMBLhQBigEBAXQ7AQIhY3t7Y/QBAQAAAAADAA7/3AUNBzoADgASABYAAAEXByEDBwEFCQElASUTIRMXAScBFwUnAlL2HQGMKdgBV/73/qD+d/7zAYT+5RYBds6Z/uWaAZyL/txTBbRdYP7YAfxpWwOs/FxSA5wBAST8waj+5KYGoG3qYwADADv/qQR9BwUAFAAYABwAABMhEQUVBQMhESUTBQM3ESMTNyc3BQEHJz8BFwcnOwPd/cUBxCD+XAJMVPvuIHZ8HGIBof7YAfF9fOl37YN1BUj+4wGfAf7t/p9E/tKDAS4UAYoBAQF0OwEB5xnjLgEz4x0AAAIAO/+pBH0HOgAUABgAABMhEQUVBQMhESUTBQM3ESMTNyc3BQEHJTc7A939xQHEIP5cAkxU++4gdnwcYgGh/tgCblT+3IwFSP7jAZ8B/u3+n0T+0oMBLhQBigEBAXQ7AQIhY+ptAAAAAgBSAAECCwc6AAMABwAAAQMhAwEXBScBgQH+0wEBLov+3FMFV/qqBSgCEW3qYwAAAgArAAEBpQc6AAMACwAAAQMhEQEHJwcnNxc1AYEB/tIBU0J6e0O9AQVX+qoFKAEdY3t7Y/QBAQAD/8YAAQIUBwQAAwAHAAsAAAERIQM3Byc3MxcHJwGB/tIBbXx96nbuhHUFV/qqBSjjGeMuM+MdAAL/3gABAYIHOgADAAcAAAEDIQMBByU3AYIB/tMBAQNU/tyMBVf6qgUoAR5j6W0AAAMAMP/8BLIHOgAMABAAFAAAARU3IRYDEQYHIQYnEQURIREDFwUnAVZOApR6Bxij/QWqGwEmAi5ijP7cVAVTg4Mi/sr8e24FB5sEf+r8/gMCAw5t6mMAAAADADD//ASyBzoADAAQABgAAAEVNyEWAxEGByEGJxEFESERAwcnByc3OwEBVk4ClHoHGKP9BaobASYCLh5TmZlU7AEBBVODgyL+yvx7bgUHmwR/6vz+AwICGmN7e2P0AAADADD//ASyBzoADAAQABQAAAEVNyEWAxEGByEGJxEFESERAwclNwFWTgKUegcYo/0FqhsBJgIulFT+3IwFU4ODIv7K/HtuBQebBH/q/P4DAgIaYultAAAAAgAg/+MEpwc6ABAAFAAAAQISFiUDBREFNQ8BBCQCEzcBFwUnAXU5U7YBQQEBIv7eND/+5/7huhERAwKM/txUBWD98v6a0DYEABH64h2ltQ4FqAICAeW5Ag9t6mMAAAAAAgAg/+MEpwc6ABAAGAAAAQISFiUDBREFNQ8BBCQCEzcBBycHJzc7AQF1OVO2AUEBASL+3jQ//uf+4boREQMzU5mZVOwBAQVg/fL+mtA2BAAR+uIdpbUOBagCAgHluQEbY3t7Y/QAAAACACD/4wSnBzoAEAAUAAABAhIWJQMFEQU1DwEEJAITNwEHJTcBdTlTtgFBAQEi/t40P/7n/uG6ERECq1T+3IwFYP3y/prQNgQAEfriHaW1DgWoAgIB5bkBG2LpbQAAAAABAFIAAQGBBVcAAwAAAQMhAwGBAf7TAQVX+qoFKAAAAAEAgAXjAlkHOgAHAAABBycHJzcXNwJZU5mZVOwBAQZGY3t7Y/QBAQABAAIFkgLPB3AACQAAEgcnEhcWNxcCJ5BDS3Tk9TZKfukGss6IAQSAlM+J/vCbAAABAN/+nwIYADIABwAABTcWFRQFJyQBBH6W/uwlAR4iVJhfghpdFwAAAAAKAH4AAQAAAAAACgBKAAAAAwABBAkAAAAeAJAAAwABBAkAAQAaAK4AAwABBAkAAgAOAEoAAwABBAkAAwAaAK4AAwABBAkABAAaAK4AAwABBAkABQAiAFgAAwABBAkABgAWAHoAAwABBAkABwAeAJAAAwABBAkACgCUAK5HYW5nIE9mIFRocmVlIGlzIGNyZWF0ZWQgd2l0aCB0aGUgRm9udCBDcmVhdG9yIFByb2dyYW0gZnJvbSBIaWdoLUxvZ2ljLmNvbQBSAGUAZwB1AGwAYQByAFUAcABkAGEAdABlAGQAIABGAGUAYgAuACAAMgAwADAANwBHAGEAbgBnAG8AZgBUAGgAcgBlAGUAMgAwADAANwAgAFYAaQBjACAARgBpAGUAZwBlAHIARwBhAG4AZwAgAG8AZgAgAFQAaAByAGUAZQAgAGkAcwAgAGMAcgBlAGEAdABlAGQAIAB3AGkAdABoACAAdABoAGUAIABGAG8AbgB0ACAAQwByAGUAYQB0AG8AcgAgAFAAcgBvAGcAcgBhAG0AIABmAHIAbwBtACAASABpAGcAaAAtAEwAbwBnAGkAYwAuAGMAbwBtAAIAAAAAAAD/JwCWAAAAAAAAAAAAAAAAAAAAAAAAAAACjQAAAQIBAwADAAQABQAGAAcACAAJAAoACwAMAA0ADgAPABAAEQASABMAFAAVABYAFwAYABkAGgAbABwAHQAeAB8AIAAhACIAIwAkACUAJgAnACgAKQAqACsALAAtAC4ALwAwADEAMgAzADQANQA2ADcAOAA5ADoAOwA8AD0APgA/AEAAQQBCAEMARABFAEYARwBIAEkASgBLAEwATQBOAE8AUABRAFIAUwBUAFUAVgBXAFgAWQBaAFsAXABdAF4AXwBgAGEAYgBjAGQAZQBmAGcAaABpAGoAawBsAG0AbgBvAHAAcQByAHMAdAB1AHYAdwB4AHkAegB7AHwAfQB+AH8AgACBAIIAgwCEAIUAhgCHAIgAiQCKAIsAjACNAI4AjwCQAJEAkgCTAJQAlQCWAQQAmACZAJoBBQCcAJ0AngEGAKAAoQCiAKMApAClAKYApwCoAKkAqgCrAK0ArgCvALAAsQCyALMAtAC1ALYAtwC4ALkAugC7ALwBBwC+AL8AwADBAMIAwwDEAMUAxgDHAMgAyQDKAMsAzADNAM4AzwDQANEA0wDUANUA1gDXANgA2QDaANsA3ADdAN4A3wDgAOEA4gDjAOQA5QDmAOcA6ADpAOoA6wDsAO0A7gDvAPAA8QDyAPMA9AD1APYA9wD4APkA+gD7APwA/QD+AP8BAAEIAQkBCgELAQwBDQEOAQ8BEAERARIBEwEUARUBFgEXARgBGQEaARsBHAEdAR4BHwEgASEBIgEjASQBJQEmAScBKAEpASoBKwEsAS0BLgEvATABMQEyATMBNAE1ATYBNwE4ATkBOgE7ATwBPQE+AT8BQAFBAUIBQwFEAUUBRgFHAUgBSQFKAUsBTAFNAU4BTwFQAVEBUgFTAVQBVQFWAVcBWAFZAVoBWwFcAV0BXgFfAWABYQFiAWMBZAFlAWYBZwFoAWkBagFrAWwBbQFuAW8BcAFxAXIBcwF0AXUBdgF3AXgBeQF6AXsBfAF9AX4BfwGAAYEBggGDAYQBhQGGAYcBiAGJAYoBiwGMAY0BjgGPAZABkQGSAZMBlAGVAZYBlwGYAZkBmgGbAZwBnQGeAZ8BoAGhAaIBowGkAaUBpgGnAagBqQGqAasBrAGtAa4BrwGwAbEBsgGzAbQBtQG2AbcBuAG5AboBuwG8Ab0BvgG/AcABwQHCAcMBxAHFAcYBxwHIAckBygHLAcwBzQHOAc8B0AHRAdIB0wHUAdUB1gHXAdgB2QHaAdsB3AHdAd4B3wHgAeEB4gHjAeQB5QHmAecB6AHpAeoB6wHsAe0B7gHvAfAB8QHyAfMB9AH1AfYB9wH4AfkB+gH7AfwB/QH+Af8CAAIBAgICAwCoAgQCBQIGAgcCCAIJAgoCCwIMAg0CDgIPAhACEQISAhMCFACfAhUCFgIXAhgCGQIaAhsCHAIdAh4CHwIgAiECIgIjAJcCJAIlAiYCJwIoAikCKgIrAiwCLQIuAi8CMAIxAjICMwI0AjUCNgI3AjgCOQI6AjsCPAI9Aj4CPwJAAkECQgJDAkQCRQJGAkcCSAJJAkoCSwJMAk0CTgJPAlACUQJSAlMCVAJVAlYCVwJYAlkCWgJbAlwCXQJeAl8CYAJhAmICYwJkAmUCZgJnAmgCaQJqAmsCbAJtAm4CbwJwAnECcgJzAnQCdQJ2AncCeAJ5AnoCewJ8An0CfgJ/AoACgQKCAoMChAKFAoYChwKIAokCigKLAowCjQKOAo8CkAKRAJsFLm51bGwQbm9ubWFya2luZ3JldHVybgNtdTEDcGkxA09obQRFdXJvB2RtYWNyb24Jb3ZlcnNjb3JlBm1pZGRvdAZBYnJldmUGYWJyZXZlB0FvZ29uZWsHYW9nb25lawZEY2Fyb24GZGNhcm9uBkRzbGFzaAdFb2dvbmVrB2VvZ29uZWsGRWNhcm9uBmVjYXJvbgZMYWN1dGUGbGFjdXRlBkxjYXJvbgZsY2Fyb24ETGRvdARsZG90Bk5hY3V0ZQZuYWN1dGUGTmNhcm9uBm5jYXJvbglPZGJsYWN1dGUJb2RibGFjdXRlBlJhY3V0ZQZyYWN1dGUGUmNhcm9uBnJjYXJvbgZTYWN1dGUGc2FjdXRlCFRjZWRpbGxhCHRjZWRpbGxhBlRjYXJvbgZ0Y2Fyb24FVXJpbmcFdXJpbmcJVWRibGFjdXRlCXVkYmxhY3V0ZQZaYWN1dGUGemFjdXRlBFpkb3QEemRvdAVHYW1tYQVUaGV0YQNQaGkFYWxwaGEFZGVsdGEHZXBzaWxvbgVzaWdtYQN0YXUDcGhpDXVuZGVyc2NvcmVkYmwJZXhjbGFtZGJsCW5zdXBlcmlvcgZwZXNldGEJYXJyb3dsZWZ0B2Fycm93dXAKYXJyb3dyaWdodAlhcnJvd2Rvd24JYXJyb3dib3RoCWFycm93dXBkbgxhcnJvd3VwZG5ic2UKb3J0aG9nb25hbAxpbnRlcnNlY3Rpb24LZXF1aXZhbGVuY2UFaG91c2UNcmV2bG9naWNhbG5vdAppbnRlZ3JhbHRwCmludGVncmFsYnQIU0YxMDAwMDAIU0YxMTAwMDAIU0YwMTAwMDAIU0YwMzAwMDAIU0YwMjAwMDAIU0YwNDAwMDAIU0YwODAwMDAIU0YwOTAwMDAIU0YwNjAwMDAIU0YwNzAwMDAIU0YwNTAwMDAIU0Y0MzAwMDAIU0YyNDAwMDAIU0Y1MTAwMDAIU0Y1MjAwMDAIU0YzOTAwMDAIU0YyMjAwMDAIU0YyMTAwMDAIU0YyNTAwMDAIU0Y1MDAwMDAIU0Y0OTAwMDAIU0YzODAwMDAIU0YyODAwMDAIU0YyNzAwMDAIU0YyNjAwMDAIU0YzNjAwMDAIU0YzNzAwMDAIU0Y0MjAwMDAIU0YxOTAwMDAIU0YyMDAwMDAIU0YyMzAwMDAIU0Y0NzAwMDAIU0Y0ODAwMDAIU0Y0MTAwMDAIU0Y0NTAwMDAIU0Y0NjAwMDAIU0Y0MDAwMDAIU0Y1NDAwMDAIU0Y1MzAwMDAIU0Y0NDAwMDAHdXBibG9jawdkbmJsb2NrBWJsb2NrB2xmYmxvY2sHcnRibG9jawdsdHNoYWRlBXNoYWRlB2Rrc2hhZGUJZmlsbGVkYm94CmZpbGxlZHJlY3QHdHJpYWd1cAd0cmlhZ3J0B3RyaWFnZG4HdHJpYWdsZgZjaXJjbGUJaW52YnVsbGV0CWludmNpcmNsZQlzbWlsZWZhY2UMaW52c21pbGVmYWNlA3N1bgZmZW1hbGUEbWFsZQVzcGFkZQRjbHViBWhlYXJ0B2RpYW1vbmQLbXVzaWNhbG5vdGUObXVzaWNhbG5vdGVkYmwCSUoCaWoLbmFwb3N0cm9waGUGbWludXRlBnNlY29uZAlhZmlpNjEyNDgJYWZpaTYxMjg5BkgyMjA3MwZIMTg1NDMGSDE4NTUxBkgxODUzMwpvcGVuYnVsbGV0B0FtYWNyb24HYW1hY3JvbgtDY2lyY3VtZmxleAtjY2lyY3VtZmxleARDZG90BGNkb3QHRW1hY3JvbgdlbWFjcm9uBkVicmV2ZQZlYnJldmUERWRvdARlZG90C0djaXJjdW1mbGV4C2djaXJjdW1mbGV4BEdkb3QEZ2RvdAhHY2VkaWxsYQhnY2VkaWxsYQtIY2lyY3VtZmxleAtoY2lyY3VtZmxleARIYmFyBGhiYXIGSXRpbGRlBml0aWxkZQdJbWFjcm9uB2ltYWNyb24GSWJyZXZlBmlicmV2ZQdJb2dvbmVrB2lvZ29uZWsLSmNpcmN1bWZsZXgLamNpcmN1bWZsZXgIS2NlZGlsbGEIa2NlZGlsbGEMa2dyZWVubGFuZGljCExjZWRpbGxhCGxjZWRpbGxhCE5jZWRpbGxhCG5jZWRpbGxhA0VuZwNlbmcHT21hY3JvbgdvbWFjcm9uBk9icmV2ZQZvYnJldmUIUmNlZGlsbGEIcmNlZGlsbGELU2NpcmN1bWZsZXgLc2NpcmN1bWZsZXgEVGJhcgR0YmFyBlV0aWxkZQZ1dGlsZGUHVW1hY3Jvbgd1bWFjcm9uBlVicmV2ZQZ1YnJldmUHVW9nb25lawd1b2dvbmVrC1djaXJjdW1mbGV4C3djaXJjdW1mbGV4C1ljaXJjdW1mbGV4C3ljaXJjdW1mbGV4BWxvbmdzCkFyaW5nYWN1dGUKYXJpbmdhY3V0ZQdBRWFjdXRlB2FlYWN1dGULT3NsYXNoYWN1dGULb3NsYXNoYWN1dGUJYW5vdGVsZWlhBldncmF2ZQZ3Z3JhdmUGV2FjdXRlBndhY3V0ZQlXZGllcmVzaXMJd2RpZXJlc2lzBllncmF2ZQZ5Z3JhdmUNcXVvdGVyZXZlcnNlZAlyYWRpY2FsZXgJYWZpaTA4OTQxCWVzdGltYXRlZAlvbmVlaWdodGgMdGhyZWVlaWdodGhzC2ZpdmVlaWdodGhzDHNldmVuZWlnaHRocwtjb21tYWFjY2VudBB1bmRlcmNvbW1hYWNjZW50BXRvbm9zDWRpZXJlc2lzdG9ub3MKQWxwaGF0b25vcwxFcHNpbG9udG9ub3MIRXRhdG9ub3MJSW90YXRvbm9zDE9taWNyb250b25vcwxVcHNpbG9udG9ub3MKT21lZ2F0b25vcxFpb3RhZGllcmVzaXN0b25vcwVBbHBoYQRCZXRhB0Vwc2lsb24EWmV0YQNFdGEESW90YQVLYXBwYQZMYW1iZGECTXUCTnUCWGkHT21pY3JvbgJQaQNSaG8FU2lnbWEDVGF1B1Vwc2lsb24DQ2hpA1BzaQxJb3RhZGllcmVzaXMPVXBzaWxvbmRpZXJlc2lzCmFscGhhdG9ub3MMZXBzaWxvbnRvbm9zCGV0YXRvbm9zCWlvdGF0b25vcxR1cHNpbG9uZGllcmVzaXN0b25vcwRiZXRhBWdhbW1hBHpldGEDZXRhBXRoZXRhBGlvdGEFa2FwcGEGbGFtYmRhAm51AnhpB29taWNyb24DcmhvBnNpZ21hMQd1cHNpbG9uA2NoaQNwc2kFb21lZ2EMaW90YWRpZXJlc2lzD3Vwc2lsb25kaWVyZXNpcwxvbWljcm9udG9ub3MMdXBzaWxvbnRvbm9zCm9tZWdhdG9ub3MJYWZpaTEwMDIzCWFmaWkxMDA1MQlhZmlpMTAwNTIJYWZpaTEwMDUzCWFmaWkxMDA1NAlhZmlpMTAwNTUJYWZpaTEwMDU2CWFmaWkxMDA1NwlhZmlpMTAwNTgJYWZpaTEwMDU5CWFmaWkxMDA2MAlhZmlpMTAwNjEJYWZpaTEwMDYyCWFmaWkxMDE0NQlhZmlpMTAwMTcJYWZpaTEwMDE4CWFmaWkxMDAxOQlhZmlpMTAwMjAJYWZpaTEwMDIxCWFmaWkxMDAyMglhZmlpMTAwMjQJYWZpaTEwMDI1CWFmaWkxMDAyNglhZmlpMTAwMjcJYWZpaTEwMDI4CWFmaWkxMDAyOQlhZmlpMTAwMzAJYWZpaTEwMDMxCWFmaWkxMDAzMglhZmlpMTAwMzMJYWZpaTEwMDM0CWFmaWkxMDAzNQlhZmlpMTAwMzYJYWZpaTEwMDM3CWFmaWkxMDAzOAlhZmlpMTAwMzkJYWZpaTEwMDQwCWFmaWkxMDA0MQlhZmlpMTAwNDIJYWZpaTEwMDQzCWFmaWkxMDA0NAlhZmlpMTAwNDUJYWZpaTEwMDQ2CWFmaWkxMDA0NwlhZmlpMTAwNDgJYWZpaTEwMDQ5CWFmaWkxMDA2NQlhZmlpMTAwNjYJYWZpaTEwMDY3CWFmaWkxMDA2OAlhZmlpMTAwNjkJYWZpaTEwMDcwCWFmaWkxMDA3MglhZmlpMTAwNzMJYWZpaTEwMDc0CWFmaWkxMDA3NQlhZmlpMTAwNzYJYWZpaTEwMDc3CWFmaWkxMDA3OAlhZmlpMTAwNzkJYWZpaTEwMDgwCWFmaWkxMDA4MQlhZmlpMTAwODIJYWZpaTEwMDgzCWFmaWkxMDA4NAlhZmlpMTAwODUJYWZpaTEwMDg2CWFmaWkxMDA4NwlhZmlpMTAwODgJYWZpaTEwMDg5CWFmaWkxMDA5MAlhZmlpMTAwOTEJYWZpaTEwMDkyCWFmaWkxMDA5MwlhZmlpMTAwOTQJYWZpaTEwMDk1CWFmaWkxMDA5NglhZmlpMTAwOTcJYWZpaTEwMDcxCWFmaWkxMDA5OQlhZmlpMTAxMDAJYWZpaTEwMTAxCWFmaWkxMDEwMglhZmlpMTAxMDMJYWZpaTEwMTA0CWFmaWkxMDEwNQlhZmlpMTAxMDYJYWZpaTEwMTA3CWFmaWkxMDEwOAlhZmlpMTAxMDkJYWZpaTEwMTEwCWFmaWkxMDE5MwlhZmlpMTAwNTAJYWZpaTEwMDk4CWFmaWkwMDIwOAlhZmlpNjEzNTIAAAAAAf//AAI=);
}
@keyframes appear {
0% { opacity: 0; }
100% { opacity: 1; }
}
@keyframes togreen {
0% { border-color: #000; }
100% { border-color: #0C0; }
}
@keyframes tored {
0% { border-color: #000; }
100% { border-color: #C00; }
}
/*
#wrapper {
background: #E5D9C7;
box-shadow: 0px 0px 25px 0px rgba(0,0,0,0.75);
display: table;
margin: 3em auto;
padding: 2em;
animation-name: appear;
animation-delay: 0.7s;
animation-duration: 0.3s;
animation-fill-mode: both;
animation-iteration-count: 1;
}
*/
#title {
color: #171412;
display: block;
font-family: GangOfThree;
font-size: 68px;
text-align: center;
animation-name: appear;
animation-delay: 2s;
animation-duration: 0.3s;
animation-fill-mode: both;
animation-iteration-count: 1;
}
#subtitle {
color: #171412;
display: block;
font-family: GangOfThree;
font-size: 24px;
text-align: center;
animation-name: appear;
animation-delay: 3s;
animation-duration: 0.3s;
animation-fill-mode: both;
animation-iteration-count: 1;
}
#cells {
display: table;
margin: 0 auto;
}
.cell {
background: #EEDFCC;
border: 1px solid #592B1F;
box-shadow: 0px 0px 10px 0px rgba(0,0,0,0.75);
display: inline-block;
padding: 1em;
margin: 0.8em;
}
.cell:hover {
box-shadow: 0px 0px 25px 5px rgba(77,143,172,1);
}
.cell img {
border: 1px solid #592B1F;
vertical-align: middle;
}
.cell span {
border-bottom: 3px solid;
font-size: 42px;
margin-left: 0.2em;
vertical-align: middle;
}
</style>
</head>
<body>
<div id="wrapper">
<span id="title">CLASSIFICATION RESULTS</span>
<p>
<span id="subtitle">ACCURACY: ''' + ('%.5f' % score[1]) + '''</span>
<p>
<div id="cells">
\n''')
for i in range(96):
index = random.randint(0, 11947-1)
x, y, t = f1['tst/x'][index], f1['tst/y'][index], f1['tst/t'][index]
score = model.evaluate(np.expand_dims(x, axis=0), np.expand_dims(y, axis=0), verbose=0)
f2.write(create_cell(i, x, t, score[1] == 1))
if (i+1)%4 == 0: f2.write(' <br>\n')
f2.write('''\
</div>
</div>
</body>
</html>''')
| 630.549451 | 79,998 | 0.945399 | 3,846 | 114,760 | 28.204108 | 0.822673 | 0.000129 | 0.000784 | 0.000968 | 0.053977 | 0.05252 | 0.05252 | 0.051985 | 0.049902 | 0.048943 | 0 | 0.136869 | 0.018343 | 114,760 | 181 | 79,999 | 634.033149 | 0.826009 | 0.000819 | 0 | 0.230263 | 0 | 0.032895 | 0.984528 | 0.954327 | 0 | 1 | 0 | 0 | 0 | 0 | null | null | 0 | 0.065789 | null | null | 0.032895 | 0 | 0 | 1 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 1 | null | 1 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
45a73f70e822d398f73e1ba32364fb7c0dc7f38c | 263 | py | Python | hyperplan/label_schema.py | hyperplan-io/cli | dc7d407701fd78d9065d60c35b0f2674b28c86bb | [
"MIT"
] | 1 | 2019-09-04T02:33:34.000Z | 2019-09-04T02:33:34.000Z | hyperplan/label_schema.py | hyperplan-io/cli | dc7d407701fd78d9065d60c35b0f2674b28c86bb | [
"MIT"
] | 1 | 2019-09-16T06:09:42.000Z | 2019-09-16T06:09:42.000Z | hyperplan/label_schema.py | hyperplan-io/cli | dc7d407701fd78d9065d60c35b0f2674b28c86bb | [
"MIT"
] | null | null | null | import json
class LabelSchema():
def __init__(self, label_id, label_descriptors):
self.label_id = label_id
self.label_descriptors = label_descriptors
def to_json(self):
return {'id': self.label_id, 'data': self.label_descriptors}
| 29.222222 | 68 | 0.695817 | 34 | 263 | 5 | 0.382353 | 0.264706 | 0.194118 | 0.188235 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.205323 | 263 | 8 | 69 | 32.875 | 0.813397 | 0 | 0 | 0 | 0 | 0 | 0.022814 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.285714 | false | 0 | 0.142857 | 0.142857 | 0.714286 | 0 | 0 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 7 |
b362c241d7799a935f7e9cb5e5d8b4fdae7ae43f | 9,910 | py | Python | src/mygrad/no_grad_funcs/__init__.py | kw-0/MyGrad | 307f1bb5f2391e7f4df49fe43a7acf9d1e8ea141 | [
"MIT"
] | 147 | 2018-07-14T01:37:35.000Z | 2022-03-29T06:37:58.000Z | src/mygrad/no_grad_funcs/__init__.py | kw-0/MyGrad | 307f1bb5f2391e7f4df49fe43a7acf9d1e8ea141 | [
"MIT"
] | 223 | 2018-05-31T14:13:18.000Z | 2022-02-27T18:53:49.000Z | src/mygrad/no_grad_funcs/__init__.py | kw-0/MyGrad | 307f1bb5f2391e7f4df49fe43a7acf9d1e8ea141 | [
"MIT"
] | 27 | 2018-06-17T14:42:05.000Z | 2021-10-31T00:21:09.000Z | import itertools
import sys
from typing import TYPE_CHECKING, Optional, Tuple, Union
import numpy
from mygrad.tensor_base import (
_REGISTERED_BOOL_ONLY_UFUNC,
_REGISTERED_CONST_ONLY_UFUNC,
_REGISTERED_NO_DIFF_NUMPY_FUNCS,
)
from mygrad.typing import ArrayLike, DTypeLike, Mask
__all__ = [
"allclose",
"bincount",
"can_cast",
"ceil",
"copyto",
"divmod",
"equal",
"floor",
"floor_divide",
"fmod",
"greater",
"greater_equal",
"isclose",
"isfinite",
"isinf",
"isnan",
"isnat",
"less",
"less_equal",
"logical_and",
"logical_not",
"logical_or",
"logical_xor",
"may_share_memory",
"min_scalar_type",
"mod",
"not_equal",
"remainder",
"result_type",
"rint",
"shape",
"shares_memory",
"sign",
"signbit",
"trunc",
]
_module = sys.modules[__name__]
for _func in itertools.chain.from_iterable(
(
_REGISTERED_NO_DIFF_NUMPY_FUNCS,
_REGISTERED_BOOL_ONLY_UFUNC,
_REGISTERED_CONST_ONLY_UFUNC,
)
):
setattr(_module, _func.__name__, _func)
mod = numpy.remainder
if TYPE_CHECKING: # pragma: no cover
def allclose(
a: ArrayLike,
b: ArrayLike,
rtol: float = 1e-05,
atol: float = 1e-08,
equal_nan: bool = False,
) -> bool:
pass
def isclose(
a: ArrayLike,
b: ArrayLike,
rtol: float = 1e-05,
atol: float = 1e-08,
equal_nan: bool = False,
) -> bool:
pass
def bincount(
x: ArrayLike, weights: Optional[ArrayLike] = None, minlength: int = 0
) -> numpy.ndarray:
pass
def can_cast(from_, to, casting="safe") -> bool:
pass
def copyto(
dst: ArrayLike, src: ArrayLike, casting: str = "same_kind", where: bool = True
):
pass
def may_share_memory(
a: ArrayLike, b: ArrayLike, max_work: Optional[int] = None
) -> bool:
pass
def min_scalar_type(a: ArrayLike) -> numpy.dtype:
pass
def result_type(*arrays_and_dtypes: Union[ArrayLike, numpy.dtype]) -> numpy.dtype:
pass
def shares_memory(
a: ArrayLike, b: ArrayLike, max_work: Optional[int] = None
) -> bool:
pass
def shape(a: ArrayLike) -> Tuple[int, ...]:
pass
def isnan(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def isfinite(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def isinf(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def isnat(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def signbit(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def logical_not(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def logical_and(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def logical_or(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def logical_xor(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def greater(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def greater_equal(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def less(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def less_equal(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def equal(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def not_equal(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Union[numpy.ndarray, bool]:
...
def floor_divide(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> numpy.ndarray:
...
def remainder(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> numpy.ndarray:
...
def divmod(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Tuple[numpy.ndarray, numpy.ndarray]:
...
def mod(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Tuple[numpy.ndarray, numpy.ndarray]:
...
def fmod(
x1: ArrayLike,
x2: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> Tuple[numpy.ndarray, numpy.ndarray]:
...
def rint(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> numpy.ndarray:
...
def sign(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> numpy.ndarray:
...
def floor(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> numpy.ndarray:
...
def ceil(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> numpy.ndarray:
...
def trunc(
x: ArrayLike,
out: Optional[ArrayLike] = None,
*,
casting: str = "same_kind",
where: Mask = True,
order: str = "K",
dtype: DTypeLike = None,
subok: bool = True
) -> numpy.ndarray:
...
| 22.939815 | 86 | 0.498486 | 990 | 9,910 | 4.878788 | 0.116162 | 0.07205 | 0.113043 | 0.096894 | 0.800828 | 0.7853 | 0.7853 | 0.7853 | 0.765839 | 0.765839 | 0 | 0.006928 | 0.373663 | 9,910 | 431 | 87 | 22.993039 | 0.771226 | 0.001615 | 0 | 0.773196 | 0 | 0 | 0.054286 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.090206 | false | 0.025773 | 0.015464 | 0 | 0.10567 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 7 |
b36b693619b91f2d2e1c37c6a8a6d3d72c8f54de | 33 | py | Python | function_19231261.py | lzy248/ASMART-21 | 0903dcaf05c694dfe125da19021494c4cdd752fd | [
"MIT"
] | null | null | null | function_19231261.py | lzy248/ASMART-21 | 0903dcaf05c694dfe125da19021494c4cdd752fd | [
"MIT"
] | null | null | null | function_19231261.py | lzy248/ASMART-21 | 0903dcaf05c694dfe125da19021494c4cdd752fd | [
"MIT"
] | null | null | null | print('My student_id: 19231261')
| 16.5 | 32 | 0.757576 | 5 | 33 | 4.8 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.266667 | 0.090909 | 33 | 1 | 33 | 33 | 0.533333 | 0 | 0 | 0 | 0 | 0 | 0.69697 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 0 | 0 | 0 | 1 | 1 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 7 |
6434c6eb96c4285f6e75454bf895fa31e982c40b | 16,420 | py | Python | cave/com.raytheon.viz.gfe/python/autotest/VTEC_GHG_Complex4_TestScript.py | srcarter3/awips2 | 37f31f5e88516b9fd576eaa49d43bfb762e1d174 | [
"Apache-2.0"
] | null | null | null | cave/com.raytheon.viz.gfe/python/autotest/VTEC_GHG_Complex4_TestScript.py | srcarter3/awips2 | 37f31f5e88516b9fd576eaa49d43bfb762e1d174 | [
"Apache-2.0"
] | null | null | null | cave/com.raytheon.viz.gfe/python/autotest/VTEC_GHG_Complex4_TestScript.py | srcarter3/awips2 | 37f31f5e88516b9fd576eaa49d43bfb762e1d174 | [
"Apache-2.0"
] | 1 | 2021-10-30T00:03:05.000Z | 2021-10-30T00:03:05.000Z | ##
# This software was developed and / or modified by Raytheon Company,
# pursuant to Contract DG133W-05-CQ-1067 with the US Government.
#
# U.S. EXPORT CONTROLLED TECHNICAL DATA
# This software product contains export-restricted data whose
# export/transfer/disclosure is restricted by U.S. law. Dissemination
# to non-U.S. persons whether in the United States or abroad requires
# an export license or other authorization.
#
# Contractor Name: Raytheon Company
# Contractor Address: 6825 Pine Street, Suite 340
# Mail Stop B8
# Omaha, NE 68106
# 402.291.0100
#
# See the AWIPS II Master Rights File ("Master Rights File.pdf") for
# further licensing information.
##
# ----------------------------------------------------------------------------
# This software is in the public domain, furnished "as is", without technical
# support, and with no warranty, express or implied, as to its usefulness for
# any purpose.
#
# More VTEC_GHG Complex Hazard Tests!
#
# Author:
# ----------------------------------------------------------------------------
scripts = [
{
"commentary": "Clear out all Hazards Table and Grids.",
"name": "GHG_Complex4_0",
"productType": None,
"clearHazardsTable" : 1,
"checkStrings": [],
},
{
"commentary": """
Creating a FG.Y hazard for Area1 and Area2
Area1 (FLZ139, FLZ239, FLZ142, FLZ242, FLZ043) 0-1
Area2 (FLZ148, FLZ248, FLZ149, FLZ249, FLZ050) 1-24
""",
"name": "GHG_Complex4_1",
"productType": "Hazard_NPW_Local",
"createGrids": [
("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"),
("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]),
("Fcst", "Hazards", "DISCRETE", 1, 24, "FG.Y", ["FLZ148", "FLZ248", "FLZ149", "FLZ249", "FLZ050"]),
],
"checkStrings": [
"WWUS72 KTBW 010000",
"NPWTBW",
"URGENT - WEATHER MESSAGE",
"National Weather Service Tampa Bay Ruskin FL",
"700 PM EST Thu Dec 31 2009",
"...|*Overview headline (must edit)*|...",
".|*Overview (must edit)*|.",
"FLZ043-139-142-239-242-010100-",
"/O.NEW.KTBW.FG.Y.0001.100101T0000Z-100101T0100Z/",
"Sumter-Coastal Levy-Coastal Citrus-Inland Levy-Inland Citrus-",
"700 PM EST Thu Dec 31 2009",
"...DENSE FOG ADVISORY IN EFFECT UNTIL 8 PM EST THIS EVENING...",
"The National Weather Service in Tampa Bay Ruskin has issued a Dense Fog Advisory, which is in effect until 8 PM EST this evening.",
# "|* SEGMENT TEXT GOES HERE *|.",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.",
"&&",
"$$",
"FLZ050-148-149-248-249-010800-",
"/O.NEW.KTBW.FG.Y.0001.100101T0100Z-100102T0000Z/",
"Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-",
"Inland Pasco-",
"700 PM EST Thu Dec 31 2009",
"...DENSE FOG ADVISORY IN EFFECT UNTIL 7 PM EST FRIDAY...",
"The National Weather Service in Tampa Bay Ruskin has issued a Dense Fog Advisory, which is in effect until 7 PM EST Friday.",
# "|* SEGMENT TEXT GOES HERE *|.",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.",
"&&",
"$$",
],
},
{
"commentary": "No changes are made to the existing hazards.",
"name": "GHG_Complex4_2",
"productType": "Hazard_NPW_Local",
"deleteGrids": [],
"checkStrings": [
"WWUS72 KTBW 010000",
"NPWTBW",
"URGENT - WEATHER MESSAGE",
"National Weather Service Tampa Bay Ruskin FL",
"700 PM EST Thu Dec 31 2009",
"...|*Overview headline (must edit)*|...",
".|*Overview (must edit)*|.",
"FLZ043-139-142-239-242-010100-",
"/O.CON.KTBW.FG.Y.0001.000000T0000Z-100101T0100Z/",
"Sumter-Coastal Levy-Coastal Citrus-Inland Levy-Inland Citrus-",
"700 PM EST Thu Dec 31 2009",
"...DENSE FOG ADVISORY REMAINS IN EFFECT UNTIL 8 PM EST THIS EVENING...",
# "A Dense Fog Advisory remains in effect until 8 PM EST this evening.",
# "|* SEGMENT TEXT GOES HERE *|.",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.",
"&&",
"$$",
"FLZ050-148-149-248-249-010800-",
"/O.CON.KTBW.FG.Y.0001.100101T0100Z-100102T0000Z/",
"Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-",
"Inland Pasco-",
"700 PM EST Thu Dec 31 2009",
"...DENSE FOG ADVISORY REMAINS IN EFFECT UNTIL 7 PM EST FRIDAY...",
# "A Dense Fog Advisory remains in effect until 7 PM EST Friday.",
# "|* SEGMENT TEXT GOES HERE *|.",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.",
"&&",
"$$",
],
},
{
"commentary": """
Creating a new area (Area3) with a HW.A hazard
Note that we jumped ahead in time 1 hour in order for the FG.Y hazard in Area1 to expire
Area3 (FLZ043, FLZ052, FLZ057) 33-75
Area1 (FLZ139, FLZ239, FLZ142, FLZ242, FLZ043) 0-1
""",
"name": "GHG_Complex4_3",
"productType": "Hazard_NPW_Local",
"createGrids": [
("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"),
("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]),
("Fcst", "Hazards", "DISCRETE", 1, 24, "FG.Y", ["FLZ148", "FLZ248", "FLZ149", "FLZ249", "FLZ050"]),
("Fcst", "Hazards", "DISCRETE", 33, 75, "HW.A", ["FLZ043", "FLZ052", "FLZ057"]),
],
"checkStrings": [
"WWUS72 KTBW 010115",
"NPWTBW",
"URGENT - WEATHER MESSAGE",
"National Weather Service Tampa Bay Ruskin FL",
"815 PM EST Thu Dec 31 2009",
"...|*Overview headline (must edit)*|...",
".|*Overview (must edit)*|.",
"FLZ043-010915-",
"/O.EXP.KTBW.FG.Y.0001.000000T0000Z-100101T0100Z/",
"/O.NEW.KTBW.HW.A.0001.100102T0900Z-100104T0300Z/",
"Sumter-",
"815 PM EST Thu Dec 31 2009",
"...HIGH WIND WATCH IN EFFECT FROM LATE FRIDAY NIGHT THROUGH SUNDAY EVENING...",
"...DENSE FOG ADVISORY HAS EXPIRED...",
"The National Weather Service in Tampa Bay Ruskin has issued a High Wind Watch, which is in effect from late Friday night through Sunday evening.",
# "|*|* SEGMENT TEXT GOES HERE *|.*|",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A High Wind Watch means there is the potential for a hazardous high wind event. Sustained winds of at least 40 mph, or gusts of 58 mph or stronger may occur. Continue to monitor the latest forecasts.",
"&&",
"$$",
"FLZ139-142-239-242-010215-",
"/O.EXP.KTBW.FG.Y.0001.000000T0000Z-100101T0100Z/",
"Coastal Levy-Coastal Citrus-Inland Levy-Inland Citrus-",
"815 PM EST Thu Dec 31 2009",
"...DENSE FOG ADVISORY HAS EXPIRED...",
# "The Dense Fog Advisory is no longer in effect.",
# "|* SEGMENT TEXT GOES HERE *|.",
"$$",
"FLZ050-148-149-248-249-010915-",
"/O.CON.KTBW.FG.Y.0001.000000T0000Z-100102T0000Z/",
"Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-",
"Inland Pasco-",
"815 PM EST Thu Dec 31 2009",
"...DENSE FOG ADVISORY REMAINS IN EFFECT UNTIL 7 PM EST FRIDAY...",
# "A Dense Fog Advisory remains in effect until 7 PM EST Friday.",
# "|* SEGMENT TEXT GOES HERE *|.",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A Dense Fog Advisory means visibilities will frequently be reduced to less than one quarter mile. If driving, slow down, use your headlights, and leave plenty of distance ahead of you.",
"&&",
"$$",
"FLZ052-057-010915-",
"/O.NEW.KTBW.HW.A.0001.100102T0900Z-100104T0300Z/",
"Polk-Highlands-",
"815 PM EST Thu Dec 31 2009",
"...HIGH WIND WATCH IN EFFECT FROM LATE FRIDAY NIGHT THROUGH SUNDAY EVENING...",
"The National Weather Service in Tampa Bay Ruskin has issued a High Wind Watch, which is in effect from late Friday night through Sunday evening.",
# "|* SEGMENT TEXT GOES HERE *|.",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A High Wind Watch means there is the potential for a hazardous high wind event. Sustained winds of at least 40 mph, or gusts of 58 mph or stronger may occur. Continue to monitor the latest forecasts.",
"&&",
"$$",
],
"drtTime":"20100101_0115",
},
{
"commentary": """
Removing Area2 and the FG.Y hazard
Area2 (FLZ148, FLZ248, FLZ149, FLZ249, FLZ050) 1-24
Upgrading the HW.A hazard in Area3 to a HW.W hazard
Area3 (FLZ043, FLZ052, FLZ057) 33-75
""",
"name": "GHG_Complex4_4",
"productType": "Hazard_NPW_Local",
"createGrids": [
("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"),
("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]),
("Fcst", "Hazards", "DISCRETE", 1, 24, "<None>", ["FLZ148", "FLZ248", "FLZ149", "FLZ249", "FLZ050"]),
("Fcst", "Hazards", "DISCRETE", 33, 75, "HW.W", ["FLZ043", "FLZ052", "FLZ057"]),
],
"checkStrings": [
"WWUS72 KTBW 010115",
"NPWTBW",
"URGENT - WEATHER MESSAGE",
"National Weather Service Tampa Bay Ruskin FL",
"815 PM EST Thu Dec 31 2009",
"...|*Overview headline (must edit)*|...",
".|*Overview (must edit)*|.",
"FLZ050-148-149-248-249-010215-",
"/O.CAN.KTBW.FG.Y.0001.000000T0000Z-100102T0000Z/",
"Pinellas-Coastal Hernando-Coastal Pasco-Inland Hernando-",
"Inland Pasco-",
"815 PM EST Thu Dec 31 2009",
"...DENSE FOG ADVISORY IS CANCELLED...",
"The National Weather Service in Tampa Bay Ruskin has cancelled the Dense Fog Advisory.",
# "|* SEGMENT TEXT GOES HERE *|.",
"$$",
"FLZ043-052-057-010915-",
"/O.UPG.KTBW.HW.A.0001.100102T0900Z-100104T0300Z/",
"/O.NEW.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/",
"Sumter-Polk-Highlands-",
"815 PM EST Thu Dec 31 2009",
"...HIGH WIND WARNING IN EFFECT FROM 4 AM SATURDAY TO 10 PM EST SUNDAY...",
"The National Weather Service in Tampa Bay Ruskin has issued a High Wind Warning, which is in effect from 4 AM Saturday to 10 PM EST Sunday. The High Wind Watch is no longer in effect.",
# "|*|*|* SEGMENT TEXT GOES HERE *|.*|*|",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A High Wind Warning means a hazardous high wind event is expected or occurring. Sustained wind speeds of at least 40 mph or gusts of 58 mph or more can lead to property damage.",
"&&",
"$$",
],
"drtTime":"20100101_0115",
},
{
"commentary": "No changes are made to the existing hazards.",
"name": "GHG_Complex4_5",
"productType": "Hazard_NPW_Local",
"deleteGrids": [],
"checkStrings": [
"WWUS72 KTBW 010115",
"NPWTBW",
"URGENT - WEATHER MESSAGE",
"National Weather Service Tampa Bay Ruskin FL",
"815 PM EST Thu Dec 31 2009",
"...|*Overview headline (must edit)*|...",
".|*Overview (must edit)*|.",
"FLZ043-052-057-010915-",
"/O.CON.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/",
"Sumter-Polk-Highlands-",
"815 PM EST Thu Dec 31 2009",
"...HIGH WIND WARNING REMAINS IN EFFECT FROM 4 AM SATURDAY TO 10 PM EST SUNDAY...",
# "A High Wind Warning remains in effect from 4 AM Saturday to 10 PM EST Sunday.",
# "|*|*|* SEGMENT TEXT GOES HERE *|.*|*|",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A High Wind Warning means a hazardous high wind event is expected or occurring. Sustained wind speeds of at least 40 mph or gusts of 58 mph or more can lead to property damage.",
"&&",
"$$",
],
"drtTime":"20100101_0115",
},
{
"commentary": """
Reducing a portion of the HW.W hazard in Area3 and setting it to no hazards
Area3 (FLZ057) 33-75
""",
"name": "GHG_Complex4_6",
"productType": "Hazard_NPW_Local",
"createGrids": [
("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"),
("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]),
("Fcst", "Hazards", "DISCRETE", 33, 75, "HW.W", ["FLZ043", "FLZ052"]),
("Fcst", "Hazards", "DISCRETE", 33, 75, "<None>", ["FLZ057"]),
],
"checkStrings": [
"WWUS72 KTBW 010115",
"NPWTBW",
"URGENT - WEATHER MESSAGE",
"National Weather Service Tampa Bay Ruskin FL",
"815 PM EST Thu Dec 31 2009",
"...|*Overview headline (must edit)*|...",
".|*Overview (must edit)*|.",
"FLZ057-010215-",
"/O.CAN.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/",
"Highlands-",
"815 PM EST Thu Dec 31 2009",
"...HIGH WIND WARNING IS CANCELLED...",
"The National Weather Service in Tampa Bay Ruskin has cancelled the High Wind Warning.",
# "|* SEGMENT TEXT GOES HERE *|.",
"$$",
"FLZ043-052-010915-",
"/O.CON.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/",
"Sumter-Polk-",
"815 PM EST Thu Dec 31 2009",
"...HIGH WIND WARNING REMAINS IN EFFECT FROM 4 AM SATURDAY TO 10 PM EST SUNDAY...",
# "A High Wind Warning remains in effect from 4 AM Saturday to 10 PM EST Sunday.",
# "|*|*|* SEGMENT TEXT GOES HERE *|.*|*|",
"PRECAUTIONARY/PREPAREDNESS ACTIONS...",
"A High Wind Warning means a hazardous high wind event is expected or occurring. Sustained wind speeds of at least 40 mph or gusts of 58 mph or more can lead to property damage.",
"&&",
"$$",
],
"drtTime":"20100101_0115",
},
{
"commentary": """
Replacing the HW.W hazard in Area3 with no hazards
Area3 (FLZ043, FLZ052) 33-75
""",
"name": "GHG_Complex4_7",
"productType": "Hazard_NPW_Local",
"createGrids": [
("Fcst", "Hazards", "DISCRETE", -100, 100, "<None>", "all"),
("Fcst", "Hazards", "DISCRETE", 0, 1, "FG.Y", ["FLZ139", "FLZ239", "FLZ142", "FLZ242", "FLZ043"]),
("Fcst", "Hazards", "DISCRETE", 33, 75, "<None>", ["FLZ043", "FLZ052"]),
],
"decodeVTEC": 0,
"checkStrings": [
"WWUS72 KTBW 010115",
"NPWTBW",
"URGENT - WEATHER MESSAGE",
"National Weather Service Tampa Bay Ruskin FL",
"815 PM EST Thu Dec 31 2009",
"...|*Overview headline (must edit)*|...",
".|*Overview (must edit)*|.",
"FLZ043-052-010215-",
"/O.CAN.KTBW.HW.W.0001.100102T0900Z-100104T0300Z/",
"Sumter-Polk-",
# "Including the cities of Wildwood, Lake Panasoffkee, ",
# "Bushnell, Lakeland, Winter Haven",
"815 PM EST Thu Dec 31 2009",
"...HIGH WIND WARNING IS CANCELLED...",
"The National Weather Service in Tampa Bay Ruskin has cancelled the High Wind Warning.",
# "|* SEGMENT TEXT GOES HERE *|.",
"$$",
],
"drtTime":"20100101_0115",
},
{
"commentary": "Canceling out all hazards.",
"name": "GHG_Complex4_8",
"productType": None,
"checkStrings": [],
"clearHazardsTable": 1,
"drtTime":"20100101_0115",
},
]
import TestScript
def testScript(self, dataMgr):
defaults = {
"database": "<site>_GRID__Fcst_00000000_0000",
"publishGrids": 0,
"decodeVTEC": 1,
"gridsStartTime": "20100101_0000",
"orderStrings": 1,
"cmdLineVars": "{('Issued By', 'issuedBy'): None}",
"deleteGrids": [("Fcst", "Hazards", "SFC", "all", "all")],
}
return TestScript.generalTestScript(self, dataMgr, scripts, defaults)
| 42.210797 | 208 | 0.595859 | 2,018 | 16,420 | 4.826065 | 0.172448 | 0.018996 | 0.01725 | 0.023719 | 0.816614 | 0.808913 | 0.778725 | 0.774412 | 0.72872 | 0.712188 | 0 | 0.113914 | 0.246711 | 16,420 | 388 | 209 | 42.319588 | 0.673458 | 0.133557 | 0 | 0.717949 | 0 | 0.051282 | 0.715164 | 0.095605 | 0 | 0 | 0 | 0 | 0 | 1 | 0.003205 | false | 0 | 0.003205 | 0 | 0.009615 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 1 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 8 |
4410d92d0310ab4837637ae6079062735dcbe28c | 551 | py | Python | TERCEIRO MUNDO - THIRD WORLD/ex109/moeda.py | MatheusKlebson/Python-Course | c1c5404095601733057bd91a96b5b4c45f0b5b9a | [
"MIT"
] | null | null | null | TERCEIRO MUNDO - THIRD WORLD/ex109/moeda.py | MatheusKlebson/Python-Course | c1c5404095601733057bd91a96b5b4c45f0b5b9a | [
"MIT"
] | 1 | 2020-11-25T15:47:38.000Z | 2020-11-25T15:47:38.000Z | TERCEIRO MUNDO - THIRD WORLD/ex109/moeda.py | MatheusKlebson/Python-Course | c1c5404095601733057bd91a96b5b4c45f0b5b9a | [
"MIT"
] | null | null | null | def diminuir(preço=0,taxa=0,formato=False):
resp = preço - (preço*taxa/100)
return resp if not formato else moeda(resp)
def aumentar(preço=0,taxa=0,formato=False):
resp = preço + (preço*taxa/100)
return resp if not formato else moeda(resp)
def metade(preço=0,formato=False):
resp = preço / 2
return resp if not formato else moeda(resp)
def dobro(preço=0,formato=False):
resp = preço * 2
return resp if not formato else moeda(resp)
def moeda(preço=0,moeda="R$"):
return f"{moeda}{preço:.2f}".replace(".",",") | 25.045455 | 49 | 0.669691 | 88 | 551 | 4.193182 | 0.25 | 0.081301 | 0.140921 | 0.184282 | 0.802168 | 0.802168 | 0.802168 | 0.802168 | 0.802168 | 0.802168 | 0 | 0.035714 | 0.186933 | 551 | 22 | 49 | 25.045455 | 0.787946 | 0 | 0 | 0.285714 | 0 | 0 | 0.039855 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.357143 | false | 0 | 0 | 0.071429 | 0.714286 | 0 | 0 | 0 | 0 | null | 0 | 0 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 9 |
447d59f4da38bb9e820101273cd72931eb803e58 | 179 | py | Python | tests/integration/commands/export/html/file_traceability/08_nosdoc_pragma/file.py | BenGardiner/strictdoc | c927872a8f080ca1f86cdb7e99767fb25398dbd5 | [
"Apache-2.0"
] | 47 | 2020-10-27T20:03:12.000Z | 2022-03-22T00:01:27.000Z | tests/integration/commands/export/html/file_traceability/08_nosdoc_pragma/file.py | BenGardiner/strictdoc | c927872a8f080ca1f86cdb7e99767fb25398dbd5 | [
"Apache-2.0"
] | 131 | 2020-10-27T18:44:24.000Z | 2022-03-31T23:51:28.000Z | tests/integration/commands/export/html/file_traceability/08_nosdoc_pragma/file.py | BenGardiner/strictdoc | c927872a8f080ca1f86cdb7e99767fb25398dbd5 | [
"Apache-2.0"
] | 12 | 2020-12-29T10:38:57.000Z | 2022-03-21T20:57:16.000Z | def hello_world():
# [nosdoc]
# [REQ-001]
print("ignored hello world")
# [/REQ-001]
# [/nosdoc]
# [REQ-001]
print("real hello world")
# [/REQ-001]
| 17.9 | 32 | 0.50838 | 21 | 179 | 4.285714 | 0.428571 | 0.266667 | 0.266667 | 0.377778 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.094488 | 0.290503 | 179 | 9 | 33 | 19.888889 | 0.614173 | 0.335196 | 0 | 0 | 0 | 0 | 0.3125 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0.333333 | true | 0 | 0 | 0 | 0.333333 | 0.666667 | 1 | 0 | 0 | null | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 1 | 1 | 0 | 0 | 0 | 0 | 1 | 0 | 8 |
448ea89db8e68a386ebcdd205ca10260305a3d66 | 46 | py | Python | heurisp/__init__.py | egroh/pyHSP | bb90e3ef383510e15231c72eefde925b234f85e0 | [
"MIT"
] | 4 | 2021-01-22T09:12:28.000Z | 2022-03-30T02:48:37.000Z | heurisp/__init__.py | egroh/pyHSP | bb90e3ef383510e15231c72eefde925b234f85e0 | [
"MIT"
] | null | null | null | heurisp/__init__.py | egroh/pyHSP | bb90e3ef383510e15231c72eefde925b234f85e0 | [
"MIT"
] | 1 | 2021-09-18T11:39:18.000Z | 2021-09-18T11:39:18.000Z | from .heurisp import OrientationSpaceExplorer
| 23 | 45 | 0.891304 | 4 | 46 | 10.25 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0.086957 | 46 | 1 | 46 | 46 | 0.97619 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | true | 0 | 1 | 0 | 1 | 0 | 1 | 1 | 1 | null | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 1 | 0 | 1 | 0 | 0 | 7 |
922492d6ff760cf7ea6293bea280038a72a1845c | 664 | py | Python | desktop/core/ext-py/python-ldap-2.3.11/Tests/Lib/ldap/test_set_option.py | wwjiang007/hue | 6475bcbc340092e9d69edc396171bb6762bae1b9 | [
"Apache-2.0"
] | 2 | 2021-04-27T03:57:00.000Z | 2021-06-18T09:39:58.000Z | desktop/core/ext-py/python-ldap-2.3.11/Tests/Lib/ldap/test_set_option.py | wwjiang007/hue | 6475bcbc340092e9d69edc396171bb6762bae1b9 | [
"Apache-2.0"
] | null | null | null | desktop/core/ext-py/python-ldap-2.3.11/Tests/Lib/ldap/test_set_option.py | wwjiang007/hue | 6475bcbc340092e9d69edc396171bb6762bae1b9 | [
"Apache-2.0"
] | 2 | 2021-09-06T18:44:45.000Z | 2022-02-24T04:10:10.000Z | import ldap
ldap.set_option(ldap.OPT_DEREF,0)
print ldap.get_option(ldap.OPT_DEREF)
ldap.set_option(ldap.OPT_DEREF,1)
print ldap.get_option(ldap.OPT_DEREF)
ldap.set_option(ldap.OPT_DEREF,2)
print ldap.get_option(ldap.OPT_DEREF)
print ldap.get_option(ldap.OPT_TIMEOUT)
print ldap.get_option(ldap.OPT_NETWORK_TIMEOUT)
ldap.set_option(ldap.OPT_TIMEOUT,0.0)
print ldap.get_option(ldap.OPT_TIMEOUT)
ldap.set_option(ldap.OPT_NETWORK_TIMEOUT,0.0)
print ldap.get_option(ldap.OPT_NETWORK_TIMEOUT)
ldap.set_option(ldap.OPT_TIMEOUT,30.0)
print ldap.get_option(ldap.OPT_TIMEOUT)
ldap.set_option(ldap.OPT_NETWORK_TIMEOUT,30.0)
print ldap.get_option(ldap.OPT_NETWORK_TIMEOUT)
| 33.2 | 47 | 0.843373 | 123 | 664 | 4.252033 | 0.113821 | 0.305927 | 0.397706 | 0.309751 | 0.977055 | 0.977055 | 0.929254 | 0.808795 | 0.808795 | 0.718929 | 0 | 0.020472 | 0.043675 | 664 | 19 | 48 | 34.947368 | 0.80315 | 0 | 0 | 0.529412 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | null | 0 | 0.058824 | null | null | 0.529412 | 0 | 0 | 0 | null | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | 0 | null | 0 | 0 | 0 | 0 | 1 | 0 | 0 | 0 | 0 | 0 | 0 | 1 | 0 | 11 |
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.