hexsha
string
size
int64
ext
string
lang
string
max_stars_repo_path
string
max_stars_repo_name
string
max_stars_repo_head_hexsha
string
max_stars_repo_licenses
list
max_stars_count
int64
max_stars_repo_stars_event_min_datetime
string
max_stars_repo_stars_event_max_datetime
string
max_issues_repo_path
string
max_issues_repo_name
string
max_issues_repo_head_hexsha
string
max_issues_repo_licenses
list
max_issues_count
int64
max_issues_repo_issues_event_min_datetime
string
max_issues_repo_issues_event_max_datetime
string
max_forks_repo_path
string
max_forks_repo_name
string
max_forks_repo_head_hexsha
string
max_forks_repo_licenses
list
max_forks_count
int64
max_forks_repo_forks_event_min_datetime
string
max_forks_repo_forks_event_max_datetime
string
content
string
avg_line_length
float64
max_line_length
int64
alphanum_fraction
float64
qsc_code_num_words_quality_signal
int64
qsc_code_num_chars_quality_signal
float64
qsc_code_mean_word_length_quality_signal
float64
qsc_code_frac_words_unique_quality_signal
float64
qsc_code_frac_chars_top_2grams_quality_signal
float64
qsc_code_frac_chars_top_3grams_quality_signal
float64
qsc_code_frac_chars_top_4grams_quality_signal
float64
qsc_code_frac_chars_dupe_5grams_quality_signal
float64
qsc_code_frac_chars_dupe_6grams_quality_signal
float64
qsc_code_frac_chars_dupe_7grams_quality_signal
float64
qsc_code_frac_chars_dupe_8grams_quality_signal
float64
qsc_code_frac_chars_dupe_9grams_quality_signal
float64
qsc_code_frac_chars_dupe_10grams_quality_signal
float64
qsc_code_frac_chars_replacement_symbols_quality_signal
float64
qsc_code_frac_chars_digital_quality_signal
float64
qsc_code_frac_chars_whitespace_quality_signal
float64
qsc_code_size_file_byte_quality_signal
float64
qsc_code_num_lines_quality_signal
float64
qsc_code_num_chars_line_max_quality_signal
float64
qsc_code_num_chars_line_mean_quality_signal
float64
qsc_code_frac_chars_alphabet_quality_signal
float64
qsc_code_frac_chars_comments_quality_signal
float64
qsc_code_cate_xml_start_quality_signal
float64
qsc_code_frac_lines_dupe_lines_quality_signal
float64
qsc_code_cate_autogen_quality_signal
float64
qsc_code_frac_lines_long_string_quality_signal
float64
qsc_code_frac_chars_string_length_quality_signal
float64
qsc_code_frac_chars_long_word_length_quality_signal
float64
qsc_code_frac_lines_string_concat_quality_signal
float64
qsc_code_cate_encoded_data_quality_signal
float64
qsc_code_frac_chars_hex_words_quality_signal
float64
qsc_code_frac_lines_prompt_comments_quality_signal
float64
qsc_code_frac_lines_assert_quality_signal
float64
qsc_codepython_cate_ast_quality_signal
float64
qsc_codepython_frac_lines_func_ratio_quality_signal
float64
qsc_codepython_cate_var_zero_quality_signal
bool
qsc_codepython_frac_lines_pass_quality_signal
float64
qsc_codepython_frac_lines_import_quality_signal
float64
qsc_codepython_frac_lines_simplefunc_quality_signal
float64
qsc_codepython_score_lines_no_logic_quality_signal
float64
qsc_codepython_frac_lines_print_quality_signal
float64
qsc_code_num_words
int64
qsc_code_num_chars
int64
qsc_code_mean_word_length
int64
qsc_code_frac_words_unique
null
qsc_code_frac_chars_top_2grams
int64
qsc_code_frac_chars_top_3grams
int64
qsc_code_frac_chars_top_4grams
int64
qsc_code_frac_chars_dupe_5grams
int64
qsc_code_frac_chars_dupe_6grams
int64
qsc_code_frac_chars_dupe_7grams
int64
qsc_code_frac_chars_dupe_8grams
int64
qsc_code_frac_chars_dupe_9grams
int64
qsc_code_frac_chars_dupe_10grams
int64
qsc_code_frac_chars_replacement_symbols
int64
qsc_code_frac_chars_digital
int64
qsc_code_frac_chars_whitespace
int64
qsc_code_size_file_byte
int64
qsc_code_num_lines
int64
qsc_code_num_chars_line_max
int64
qsc_code_num_chars_line_mean
int64
qsc_code_frac_chars_alphabet
int64
qsc_code_frac_chars_comments
int64
qsc_code_cate_xml_start
int64
qsc_code_frac_lines_dupe_lines
int64
qsc_code_cate_autogen
int64
qsc_code_frac_lines_long_string
int64
qsc_code_frac_chars_string_length
int64
qsc_code_frac_chars_long_word_length
int64
qsc_code_frac_lines_string_concat
null
qsc_code_cate_encoded_data
int64
qsc_code_frac_chars_hex_words
int64
qsc_code_frac_lines_prompt_comments
int64
qsc_code_frac_lines_assert
int64
qsc_codepython_cate_ast
int64
qsc_codepython_frac_lines_func_ratio
int64
qsc_codepython_cate_var_zero
int64
qsc_codepython_frac_lines_pass
int64
qsc_codepython_frac_lines_import
int64
qsc_codepython_frac_lines_simplefunc
int64
qsc_codepython_score_lines_no_logic
int64
qsc_codepython_frac_lines_print
int64
effective
string
hits
int64
f93677e3c0422132e4317200707c94f174746b85
12,685
py
Python
dymos/examples/brachistochrone/doc/test_doc_brachistochrone.py
naylor-b/dymos
56ee72041056ae20c3332d060e291c4da93844b1
[ "Apache-2.0" ]
null
null
null
dymos/examples/brachistochrone/doc/test_doc_brachistochrone.py
naylor-b/dymos
56ee72041056ae20c3332d060e291c4da93844b1
[ "Apache-2.0" ]
null
null
null
dymos/examples/brachistochrone/doc/test_doc_brachistochrone.py
naylor-b/dymos
56ee72041056ae20c3332d060e291c4da93844b1
[ "Apache-2.0" ]
null
null
null
from __future__ import print_function, absolute_import, division import os import unittest import matplotlib matplotlib.use('Agg') import matplotlib.pyplot as plt plt.style.use('ggplot') class TestBrachistochroneForDocs(unittest.TestCase): def tearDown(self): for filename in ['coloring.json', 'SLSQP.out', 'SNOPT_print.out', 'SNOPT_summary.out']: if os.path.exists(filename): os.remove(filename) def test_brachistochrone_for_docs_gauss_lobatto(self): from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, \ SqliteRecorder, CaseReader from openmdao.utils.assert_utils import assert_rel_error import dymos as dm from dymos.examples.plotting import plot_results from dymos.examples.brachistochrone import BrachistochroneODE # # Initialize the Problem and the optimization driver # p = Problem(model=Group()) p.driver = ScipyOptimizeDriver() p.driver.options['dynamic_simul_derivs'] = True # # Create a trajectory and add a phase to it # traj = p.model.add_subsystem('traj', dm.Trajectory()) phase = traj.add_phase('phase0', dm.Phase(ode_class=BrachistochroneODE, transcription=dm.GaussLobatto(num_segments=10))) # # Set the variables # phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10)) phase.set_state_options('x', fix_initial=True, fix_final=True) phase.set_state_options('y', fix_initial=True, fix_final=True) phase.set_state_options('v', fix_initial=True) phase.add_control('theta', units='deg', lower=0.01, upper=179.9) phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665) # # Minimize time at the end of the phase # phase.add_objective('time', loc='final', scaler=10) p.model.linear_solver = DirectSolver() # # Setup the Problem # p.setup() # # Set the initial values # p['traj.phase0.t_initial'] = 0.0 p['traj.phase0.t_duration'] = 2.0 p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input') p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input') p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input') p['traj.phase0.controls:theta'] = phase.interpolate(ys=[5, 100.5], nodes='control_input') # # Solve for the optimal trajectory # p.run_driver() # Test the results assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016, tolerance=1.0E-3) # Generate the explicitly simulated trajectory exp_out = traj.simulate() plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y', 'x (m)', 'y (m)'), ('traj.phase0.timeseries.time', 'traj.phase0.timeseries.controls:theta', 'time (s)', 'theta (deg)')], title='Brachistochrone Solution\nHigh-Order Gauss-Lobatto Method', p_sol=p, p_sim=exp_out) plt.show() def test_brachistochrone_for_docs_radau(self): from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, SqliteRecorder from openmdao.utils.assert_utils import assert_rel_error import dymos as dm from dymos.examples.plotting import plot_results from dymos.examples.brachistochrone import BrachistochroneODE # # Initialize the Problem and the optimization driver # p = Problem(model=Group()) p.driver = ScipyOptimizeDriver() p.driver.options['dynamic_simul_derivs'] = True # # Create a trajectory and add a phase to it # traj = p.model.add_subsystem('traj', dm.Trajectory()) phase = traj.add_phase('phase0', dm.Phase(ode_class=BrachistochroneODE, transcription=dm.Radau(num_segments=10))) # # Set the variables # phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10)) phase.set_state_options('x', fix_initial=True, fix_final=True) phase.set_state_options('y', fix_initial=True, fix_final=True) phase.set_state_options('v', fix_initial=True) phase.add_control('theta', units='deg', lower=0.01, upper=179.9) phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665) # # Minimize time at the end of the phase # phase.add_objective('time', loc='final', scaler=10) p.model.linear_solver = DirectSolver() # # Setup the Problem # p.setup() # # Set the initial values # p['traj.phase0.t_initial'] = 0.0 p['traj.phase0.t_duration'] = 2.0 p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input') p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input') p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input') p['traj.phase0.controls:theta'] = phase.interpolate(ys=[5, 100.5], nodes='control_input') # # Solve for the optimal trajectory # p.run_driver() # Test the results assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016, tolerance=1.0E-3) # Generate the explicitly simulated trajectory exp_out = traj.simulate() plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y', 'x (m)', 'y (m)'), ('traj.phase0.timeseries.time', 'traj.phase0.timeseries.controls:theta', 'time (s)', 'theta (deg)')], title='Brachistochrone Solution\nRadau Pseudospectral Method', p_sol=p, p_sim=exp_out) plt.show() def test_brachistochrone_for_docs_runge_kutta(self): from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, SqliteRecorder from openmdao.utils.assert_utils import assert_rel_error import dymos as dm from dymos.examples.plotting import plot_results from dymos.examples.brachistochrone import BrachistochroneODE # # Initialize the Problem and the optimization driver # p = Problem(model=Group()) p.driver = ScipyOptimizeDriver() p.driver.options['dynamic_simul_derivs'] = True # # Create a trajectory and add a phase to it # traj = p.model.add_subsystem('traj', dm.Trajectory()) phase = traj.add_phase('phase0', dm.Phase(ode_class=BrachistochroneODE, transcription=dm.RungeKutta(num_segments=10))) # # Set the variables # phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10)) phase.set_state_options('x', fix_initial=True) phase.set_state_options('y', fix_initial=True) phase.set_state_options('v', fix_initial=True) phase.add_control('theta', units='deg', lower=0.01, upper=179.9) phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665) # # Final state values are not optimization variables, so we must enforce final values # with boundary constraints, not simple bounds. # phase.add_boundary_constraint('x', loc='final', equals=10) phase.add_boundary_constraint('y', loc='final', equals=5) # # Minimize time at the end of the phase # phase.add_objective('time', loc='final', scaler=10) p.model.linear_solver = DirectSolver() # # Setup the Problem # p.setup() # # Set the initial values # p['traj.phase0.t_initial'] = 0.0 p['traj.phase0.t_duration'] = 2.0 p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input') p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input') p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input') p['traj.phase0.controls:theta'] = phase.interpolate(ys=[5, 100.5], nodes='control_input') # # Solve for the optimal trajectory # p.run_driver() # Test the results assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016, tolerance=1.0E-3) # Generate the explicitly simulated trajectory exp_out = traj.simulate() plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y', 'x (m)', 'y (m)'), ('traj.phase0.timeseries.time', 'traj.phase0.timeseries.controls:theta', 'time (s)', 'theta (deg)')], title='Brachistochrone Solution\nRK4 Shooting Method', p_sol=p, p_sim=exp_out) plt.show() def test_brachistochrone_for_docs_runge_kutta_polynomial_controls(self): from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, SqliteRecorder from openmdao.utils.assert_utils import assert_rel_error import dymos as dm from dymos.examples.plotting import plot_results from dymos.examples.brachistochrone import BrachistochroneODE # # Initialize the Problem and the optimization driver # p = Problem(model=Group()) p.driver = ScipyOptimizeDriver() p.driver.options['dynamic_simul_derivs'] = True # # Create a trajectory and add a phase to it # traj = p.model.add_subsystem('traj', dm.Trajectory()) phase = traj.add_phase('phase0', dm.Phase(ode_class=BrachistochroneODE, transcription=dm.RungeKutta(num_segments=10))) # # Set the variables # phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10)) phase.set_state_options('x', fix_initial=True) phase.set_state_options('y', fix_initial=True) phase.set_state_options('v', fix_initial=True) phase.add_polynomial_control('theta', units='deg', lower=0.01, upper=179.9, order=1) phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665) # # Final state values are not optimization variables, so we must enforce final values # with boundary constraints, not simple bounds. # phase.add_boundary_constraint('x', loc='final', equals=10) phase.add_boundary_constraint('y', loc='final', equals=5) # # Minimize time at the end of the phase # phase.add_objective('time', loc='final', scaler=10) p.model.linear_solver = DirectSolver() # # Setup the Problem # p.setup() # # Set the initial values # p['traj.phase0.t_initial'] = 0.0 p['traj.phase0.t_duration'] = 2.0 p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input') p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input') p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input') p['traj.phase0.polynomial_controls:theta'][:] = 5.0 # # Solve for the optimal trajectory # p.run_driver() # Test the results assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016, tolerance=1.0E-3) # Generate the explicitly simulated trajectory exp_out = traj.simulate() plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y', 'x (m)', 'y (m)'), ('traj.phase0.timeseries.time', 'traj.phase0.timeseries.polynomial_controls:theta', 'time (s)', 'theta (deg)')], title='Brachistochrone Solution\nRK4 Shooting and Polynomial Controls', p_sol=p, p_sim=exp_out) plt.show() if __name__ == '__main__': unittest.main()
36.875
105
0.595034
1,517
12,685
4.828609
0.12261
0.060068
0.036041
0.032765
0.930648
0.926689
0.926689
0.926689
0.926689
0.923686
0
0.027964
0.283957
12,685
343
106
36.982507
0.778487
0.11013
0
0.827586
0
0
0.176723
0.081344
0
0
0
0
0.045977
1
0.028736
false
0
0.143678
0
0.178161
0.011494
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
f9738638a008590bd6d8a2b0e9efd5a594e867be
30,695
py
Python
polynomials_on_simplices/polynomial/test/polynomials_simplex_bernstein_basis_test.py
FAndersson/polynomials_on_simplices
f015a4772c817bfa99b0d6b726667a38a174b064
[ "MIT" ]
1
2021-03-17T11:41:21.000Z
2021-03-17T11:41:21.000Z
polynomials_on_simplices/polynomial/test/polynomials_simplex_bernstein_basis_test.py
FAndersson/polynomials_on_simplices
f015a4772c817bfa99b0d6b726667a38a174b064
[ "MIT" ]
null
null
null
polynomials_on_simplices/polynomial/test/polynomials_simplex_bernstein_basis_test.py
FAndersson/polynomials_on_simplices
f015a4772c817bfa99b0d6b726667a38a174b064
[ "MIT" ]
null
null
null
import sys import numpy as np import pytest import polynomials_on_simplices.algebra.multiindex as multiindex from polynomials_on_simplices.calculus.finite_difference import central_difference, central_difference_jacobian from polynomials_on_simplices.geometry.primitives.simplex import affine_map_from_unit from polynomials_on_simplices.polynomial.polynomials_monomial_basis import unique_identifier_monomial_basis from polynomials_on_simplices.polynomial.polynomials_simplex_base import polynomials_equal_on_simplex from polynomials_on_simplices.polynomial.polynomials_simplex_bernstein_basis import ( PolynomialBernsteinSimplex, bernstein_basis_fn_simplex, dual_bernstein_basis_fn_simplex, dual_vector_valued_bernstein_basis_simplex, get_dimension, unique_identifier_bernstein_basis_simplex, unit_polynomial_simplex, vector_valued_bernstein_basis_simplex, zero_polynomial_simplex) from polynomials_on_simplices.probability_theory.uniform_sampling import nsimplex_sampling def test_call(): vertices = np.random.random_sample((2, 1)) # Test calling a scalar valued univariate polynomial p = PolynomialBernsteinSimplex([1, 1, 1], vertices, 2) value = p(0.5) expected_value = 1 assert abs(value - expected_value) < 1e-12 # Test calling a vector valued univariate polynomial p = PolynomialBernsteinSimplex([[1, 1], [1, 1], [1, 1]], vertices, 2) value = p(0.5) expected_value = np.array([1, 1]) assert np.linalg.norm(value - expected_value) < 1e-10 vertices = np.random.random_sample((3, 2)) # Test calling a scalar valued bivariate polynomial p = PolynomialBernsteinSimplex([1, 1, 1, 1, 1, 1], vertices, 2) value = p([1 / 3, 1 / 3]) expected_value = 1 assert abs(value - expected_value) < 1e-12 # Test calling a vector valued bivariate polynomial p = PolynomialBernsteinSimplex([[1, 1], [1, 1], [1, 1], [1, 1], [1, 1], [1, 1]], vertices, 2) value = p([1 / 3, 1 / 3]) expected_value = np.array([1, 1]) assert np.linalg.norm(value - expected_value) < 1e-10 def test_getitem(): # Test getting the components of a polynomial in P(R^m, R^n) for m in [1, 2, 3]: for n in [1, 2, 3]: r = 3 dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r) for i in range(n): if n == 1: def pi_expected(x): return p(x) else: def pi_expected(x): return p(x)[i] assert polynomials_equal_on_simplex(p[i], pi_expected, r, vertices) def test_add(): # Test adding two polynomials in P(R^m, R^n) for m in [1, 2, 3]: for n in [1, 2, 3]: r = 3 dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) b = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) b = np.random.random_sample((dim, n)) vertices = np.random.random_sample((m + 1, m)) p1 = PolynomialBernsteinSimplex(a, vertices, r) p2 = PolynomialBernsteinSimplex(b, vertices, r) def p_expected(x): return p1(x) + p2(x) assert polynomials_equal_on_simplex(p1 + p2, p_expected, r, vertices) # Test adding two polynomials in P(R^m, R^n) of different degree for m in [1, 2, 3]: for n in [1, 2, 3]: r1 = 2 r2 = 3 dim1 = get_dimension(r1, m) dim2 = get_dimension(r2, m) if n == 1: a = np.random.random_sample(dim1) b = np.random.random_sample(dim2) else: a = np.random.random_sample((dim1, n)) b = np.random.random_sample((dim2, n)) vertices = np.random.random_sample((m + 1, m)) p1 = PolynomialBernsteinSimplex(a, vertices, r1) p2 = PolynomialBernsteinSimplex(b, vertices, r2) def p_expected(x): return p1(x) + p2(x) assert polynomials_equal_on_simplex(p1 + p2, p_expected, max(r1, r2), vertices) def test_sub(): # Test subtracting two polynomials in P(R^m, R^n) for m in [1, 2, 3]: for n in [1, 2, 3]: r = 3 dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) b = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) b = np.random.random_sample((dim, n)) vertices = np.random.random_sample((m + 1, m)) p1 = PolynomialBernsteinSimplex(a, vertices, r) p2 = PolynomialBernsteinSimplex(b, vertices, r) def p_expected(x): return p1(x) - p2(x) assert polynomials_equal_on_simplex(p1 - p2, p_expected, r, vertices) # Test subtracting two polynomials in P(R^m, R^n) of different degree for m in [1, 2, 3]: for n in [1, 2, 3]: r1 = 2 r2 = 3 dim1 = get_dimension(r1, m) dim2 = get_dimension(r2, m) if n == 1: a = np.random.random_sample(dim1) b = np.random.random_sample(dim2) else: a = np.random.random_sample((dim1, n)) b = np.random.random_sample((dim2, n)) vertices = np.random.random_sample((m + 1, m)) p1 = PolynomialBernsteinSimplex(a, vertices, r1) p2 = PolynomialBernsteinSimplex(b, vertices, r2) def p_expected(x): return p1(x) - p2(x) assert polynomials_equal_on_simplex(p1 - p2, p_expected, r, vertices) @pytest.mark.slow def test_mul(): # Test multiplying a polynomial in P(R^m, R^n) with a scalar for m in [1, 2, 3]: for n in [1, 2, 3]: r = 3 dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) s = np.random.rand() vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r) def p_expected(x): return s * p(x) assert polynomials_equal_on_simplex(s * p, p_expected, r, vertices) assert polynomials_equal_on_simplex(p * s, p_expected, r, vertices) # Test multiplying a polynomial in P(R^m) = P(R^m, R^1) with a vector for m in [1, 2, 3]: r = 3 dim = get_dimension(r, m) a = np.random.random_sample(dim) v = np.random.rand(2) vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r) def p_expected(x): return v * p(x) # Can't do this, because this will be handled by the Numpy ndarray __mul__ method and result in Numpy array # of polynomials # assert polynomials_equal(v * p, p_expected, r, m) assert polynomials_equal_on_simplex(p * v, p_expected, r, vertices) # Test multiplying two polynomials in P(R^m) = P(R^m, R^1) for m in [1, 2, 3]: r1 = 3 r2 = 2 dim1 = get_dimension(r1, m) a = np.random.random_sample(dim1) dim2 = get_dimension(r2, m) b = np.random.random_sample(dim2) vertices = np.random.random_sample((m + 1, m)) p1 = PolynomialBernsteinSimplex(a, vertices, r1) p2 = PolynomialBernsteinSimplex(b, vertices, r2) def p_expected(x): return p1(x) * p2(x) assert polynomials_equal_on_simplex(p1 * p2, p_expected, r1 + r2, vertices) def test_div(): # Test dividing a polynomial in P(R^m, R^n) with a scalar for m in [1, 2, 3]: for n in [1, 2, 3]: r = 3 dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) s = np.random.rand() vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r) def p_expected(x): return p(x) / s assert polynomials_equal_on_simplex(p / s, p_expected, r, vertices) @pytest.mark.slow def test_pow(): # Test taking the power of a polynomial in P(R^m, R^n) r = 3 for m in [1, 2, 3]: for n in [1, 2, 3]: if n == 1: exponents = range(r + 1) else: exponents = multiindex.generate_all(n, r) for exponent in exponents: r_base = 1 dim = get_dimension(r_base, m) if n == 1: a = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r_base) if n == 1: def p_expected(x): return p(x)**exponent else: def p_expected(x): return multiindex.power(p(x), exponent) assert polynomials_equal_on_simplex(p**exponent, p_expected, r, vertices) @pytest.mark.slow def test_partial_derivative(): for m in [1, 2, 3]: for n in [1, 2, 3]: for r in [0, 1, 2, 3]: dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r) for i in range(m): if n == 1: if m == 1: def dp_dxi_fd(x): return central_difference(p, x) else: def dp_dxi_fd(x): return central_difference(p, x)[i] else: def dp_dxi_fd(x): return central_difference_jacobian(p, n, x)[:, i] assert polynomials_equal_on_simplex(p.partial_derivative(i), dp_dxi_fd, r, vertices, rel_tol=1e-4) @pytest.mark.slow def test_degree_elevate(): for m in [1, 2, 3]: for n in [1, 2, 3]: for r in [0, 1, 2, 3]: dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r) for s in range(r, r + 3): q = p.degree_elevate(s) assert polynomials_equal_on_simplex(p, q, s, vertices) @pytest.mark.slow def test_to_monomial_basis(): for m in [1, 2, 3]: for n in [2, 3]: for r in [0, 1, 2, 3]: dim = get_dimension(r, m) if n == 1: a = np.random.random_sample(dim) else: a = np.random.random_sample((dim, n)) vertices = np.random.random_sample((m + 1, m)) p = PolynomialBernsteinSimplex(a, vertices, r) q = p.to_monomial_basis() assert q.basis() == unique_identifier_monomial_basis() assert polynomials_equal_on_simplex(p, q, r, vertices) def test_latex_str(): # Test univariate polynomial vertices = np.array([[1], [3]]) p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 2) assert p.latex_str() == "b_{0, 2}(x) - 2 b_{1, 2}(x) + 3 b_{2, 2}(x)" # Test bivariate polynomial vertices = np.array([[2, 3], [4, 3], [2, 5]]) p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 1) assert p.latex_str() == "b_{(0, 0), 1}(x) - 2 b_{(1, 0), 1}(x) + 3 b_{(0, 1), 1}(x)" p = PolynomialBernsteinSimplex([0, 1, 0], vertices, 1) assert p.latex_str() == "b_{(1, 0), 1}(x)" p = PolynomialBernsteinSimplex([0, 0, -1], vertices, 1) assert p.latex_str() == "-b_{(0, 1), 1}(x)" p = PolynomialBernsteinSimplex([1, -2, 3, 0.5, 1, 2], vertices, 2) assert p.latex_str() == r"b_{(0, 0), 2}(x) - 2 b_{(1, 0), 2}(x) + 3 b_{(2, 0), 2}(x) + " \ r"\frac{1}{2} b_{(0, 1), 2}(x) + b_{(1, 1), 2}(x) + 2 b_{(0, 2), 2}(x)" # Test vector valued polynomial vertices = np.array([[1], [3]]) p = PolynomialBernsteinSimplex([[1, 1], [-2, -3], [3, 2]], vertices, 2) assert p.latex_str() == r"\begin{pmatrix}1 \\ 1\end{pmatrix} b_{0, 2}(x)" \ r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} b_{1, 2}(x)" \ r" + \begin{pmatrix}3 \\ 2\end{pmatrix} b_{2, 2}(x)" # Test bivariate vector valued polynomial vertices = np.array([[2, 3], [4, 3], [2, 5]]) p = PolynomialBernsteinSimplex([[1, 1], [-2, -3], [3, 2]], vertices, 1) assert p.latex_str() == r"\begin{pmatrix}1 \\ 1\end{pmatrix} b_{(0, 0), 1}(x)" \ r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} b_{(1, 0), 1}(x)" \ r" + \begin{pmatrix}3 \\ 2\end{pmatrix} b_{(0, 1), 1}(x)" def test_latex_str_expanded(): # Test univariate polynomial vertices = np.array([[1], [3]]) p = PolynomialBernsteinSimplex([1, -2], vertices, 1) assert p.latex_str_expanded() == r"(\frac{3}{2} - \frac{1}{2} x) - 2 (-\frac{1}{2} + \frac{1}{2} x)" # Test bivariate polynomial vertices = np.array([[2, 3], [4, 3], [2, 5]]) p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 1) assert p.latex_str_expanded() == r"(\frac{7}{2} - \frac{1}{2} x_1 - \frac{1}{2} x_2)"\ r" - 2 (-1 + \frac{1}{2} x_1)"\ r" + 3 (-\frac{3}{2} + \frac{1}{2} x_2)" # Test vector valued polynomial vertices = np.array([[1], [3]]) p = PolynomialBernsteinSimplex([[1, 1], [-2, -3]], vertices, 1) assert p.latex_str_expanded() == r"\begin{pmatrix}1 \\ 1\end{pmatrix} (\frac{3}{2} - \frac{1}{2} x)" \ r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} (-\frac{1}{2} + \frac{1}{2} x)" # Test bivariate vector valued polynomial vertices = np.array([[2, 3], [4, 3], [2, 5]]) p = PolynomialBernsteinSimplex([[1, 1], [-2, -3], [3, 2]], vertices, 1) assert p.latex_str_expanded() == ( r"\begin{pmatrix}1 \\ 1\end{pmatrix} (\frac{7}{2} - \frac{1}{2} x_1 - \frac{1}{2} x_2)" + r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} (-1 + \frac{1}{2} x_1)" + r" + \begin{pmatrix}3 \\ 2\end{pmatrix} (-\frac{3}{2} + \frac{1}{2} x_2)") def test_code_str(): # Test univariate polynomial vertices = np.array([[1], [3]]) p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 2) fn_name = "test_code_str" code = p.code_str(fn_name) compiled_code = compile(code, fn_name, 'exec') exec(compiled_code, globals(), locals()) test_fn = locals()[fn_name] x = np.random.rand() assert p(x) == test_fn(x) # Test vector valued univariate polynomial vertices = np.array([[1], [3]]) p = PolynomialBernsteinSimplex([[1, 1], [-2, -2], [3, 3]], vertices, 2) fn_name = "test_code_str" code = p.code_str(fn_name) compiled_code = compile(code, fn_name, 'exec') exec(compiled_code, globals(), locals()) test_fn = locals()[fn_name] x = np.random.rand() assert np.linalg.norm(p(x) - test_fn(x)) < 1e-14 # Test bivariate polynomial vertices = np.array([[2, 3], [4, 3], [2, 5]]) p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 1) fn_name = "test_code_str" code = p.code_str(fn_name) compiled_code = compile(code, fn_name, 'exec') exec(compiled_code, globals(), locals()) test_fn = locals()[fn_name] x = np.random.rand(2) assert p(x) == test_fn(x) # Test vector valued bivariate polynomial vertices = np.array([[2, 3], [4, 3], [2, 5]]) p = PolynomialBernsteinSimplex([[1, 1], [-2, -2], [3, 3]], vertices, 1) fn_name = "test_code_str" code = p.code_str(fn_name) compiled_code = compile(code, fn_name, 'exec') exec(compiled_code, globals(), locals()) test_fn = locals()[fn_name] x = np.random.rand(2) assert np.linalg.norm(p(x) - test_fn(x)) < 1e-14 class TestUnivariateBernsteinBasis: @staticmethod def get_expected_basis_fns(): return [ [ lambda x: 1 ], [ lambda x: -0.5 * x + 1.5, lambda x: 0.5 * x - 0.5 ], [ lambda x: (0.5 * x - 1.5)**2, lambda x: -0.5 * x**2 + 2.0 * x - 1.5, lambda x: 0.25 * (x - 1)**2 ], [ lambda x: -(0.5 * x - 1.5)**3, lambda x: 1.5 * (0.5 * x - 1.5)**2 * (x - 1), lambda x: (-0.375 * x + 1.125) * (x - 1)**2, lambda x: 0.125 * (x - 1)**3 ] ] @staticmethod def test_basis_fn(): vertices = np.array([[1], [3]]) for r in range(4): for i in range(r + 1): p = bernstein_basis_fn_simplex(i, r, vertices) p_expected = TestUnivariateBernsteinBasis.get_expected_basis_fns()[r][i] assert polynomials_equal_on_simplex(p, p_expected, r, vertices) @staticmethod def test_vector_valued_basis_fn(): vertices = np.array([[1], [3]]) n = 2 r = 2 basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential") basis_expected = [ PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1]], vertices, r) ] for i in range(len(basis)): assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices) assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices) basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved") basis_expected = [ PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1]], vertices, r) ] for i in range(len(basis)): assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices) assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices) @staticmethod def test_dual_basis_fn(): vertices = np.array([[1], [3]]) for r in range(1, 4): for mu in multiindex.generate_all(1, r): q = dual_bernstein_basis_fn_simplex(mu, r, vertices) for nu in multiindex.generate_all(1, r): p = bernstein_basis_fn_simplex(nu, r, vertices) if mu == nu: assert abs(q(p) - 1.0) < 1e-10 else: assert abs(q(p)) < 1e-10 @staticmethod def test_dual_vector_valued_basis_fn(): vertices = np.array([[1], [3]]) n = 2 for r in range(4): basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential") dual_basis = dual_vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential") for i in range(len(basis)): p = basis[i] for j in range(len(basis)): q = dual_basis[j] if i == j: assert abs(q(p) - 1.0) < 1e-10 else: assert abs(q(p)) < 1e-10 for r in range(4): basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved") dual_basis = dual_vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved") for i in range(len(basis)): p = basis[i] for j in range(len(basis)): q = dual_basis[j] if i == j: assert abs(q(p) - 1.0) < 1e-10 else: assert abs(q(p)) < 1e-10 class TestBivariateBernsteinBasis: @staticmethod def get_expected_basis_fns(): return [ { (0, 0): lambda x: 1 }, { (0, 0): lambda x: -0.5 * x[0] - 0.5 * x[1] + 3.5, (1, 0): lambda x: 0.5 * x[0] - 1.0, (0, 1): lambda x: 0.5 * x[1] - 1.5 }, { (0, 0): lambda x: (0.5 * x[0] + 0.5 * x[1] - 3.5)**2, (1, 0): lambda x: -2 * (0.5 * x[0] - 1.0) * (0.5 * x[0] + 0.5 * x[1] - 3.5), (2, 0): lambda x: (0.5 * x[0] - 1.0)**2, (0, 1): lambda x: -2 * (0.5 * x[1] - 1.5) * (0.5 * x[0] + 0.5 * x[1] - 3.5), (1, 1): lambda x: 2 * (0.5 * x[0] - 1.0) * (0.5 * x[1] - 1.5), (0, 2): lambda x: (0.5 * x[1] - 1.5)**2 }, { (0, 0): lambda x: -(0.5 * x[0] + 0.5 * x[1] - 3.5)**3, (1, 0): lambda x: (1.5 * x[0] - 3.0) * (0.5 * x[0] + 0.5 * x[1] - 3.5)**2, (2, 0): lambda x: (0.5 * x[0] - 1.0)**2 * (-1.5 * x[0] - 1.5 * x[1] + 10.5), (3, 0): lambda x: (0.5 * x[0] - 1.0)**3, (0, 1): lambda x: (1.5 * x[1] - 4.5) * (0.5 * x[0] + 0.5 * x[1] - 3.5)**2, (1, 1): lambda x: -6 * (0.5 * x[0] - 1.0) * (0.5 * x[1] - 1.5) * (0.5 * x[0] + 0.5 * x[1] - 3.5), (2, 1): lambda x: (0.5 * x[0] - 1.0)**2 * (1.5 * x[1] - 4.5), (0, 2): lambda x: (0.5 * x[1] - 1.5)**2 * (-1.5 * x[0] - 1.5 * x[1] + 10.5), (1, 2): lambda x: (1.5 * x[0] - 3.0) * (0.5 * x[1] - 1.5)**2, (0, 3): lambda x: (0.5 * x[1] - 1.5)**3 }, ] @staticmethod def test_basis_fn(): vertices = np.array([[2, 3], [4, 3], [2, 5]]) m = 2 for r in range(4): for nu in multiindex.generate_all(m, r): p = bernstein_basis_fn_simplex(nu, r, vertices) p_expected = TestBivariateBernsteinBasis.get_expected_basis_fns()[r][nu] assert polynomials_equal_on_simplex(p, p_expected, r, vertices) @staticmethod def test_basis_fn_vector_valued(): vertices = np.array([[2, 3], [4, 3], [2, 5]]) n = 2 r = 2 basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential") basis_expected = [ PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [1, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [1, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [1, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 1], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 1], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 1]], vertices, r) ] for i in range(len(basis)): assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices) assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices) basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved") basis_expected = [ PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1], [0, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [1, 0], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 1], [0, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [1, 0], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 1], [0, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [1, 0]], vertices, r), PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 1]], vertices, r) ] for i in range(len(basis)): assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices) assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices) @staticmethod @pytest.mark.slow def test_dual_basis_fn(): vertices = np.array([[2, 3], [4, 3], [2, 5]]) m = 2 r = 3 for mu in multiindex.generate_all(m, r): q = dual_bernstein_basis_fn_simplex(mu, r, vertices) for nu in multiindex.generate_all(m, r): p = bernstein_basis_fn_simplex(nu, r, vertices) if mu == nu: assert abs(q(p) - 1.0) < 1e-10 else: assert abs(q(p)) < 1e-10 @staticmethod @pytest.mark.slow def test_dual_vector_valued_basis_fn(): vertices = np.array([[2, 3], [4, 3], [2, 5]]) n = 2 for r in range(4): basis = vector_valued_bernstein_basis_simplex(r, vertices, n) dual_basis = dual_vector_valued_bernstein_basis_simplex(r, vertices, n) for i in range(len(basis)): p = basis[i] for j in range(len(basis)): q = dual_basis[j] if i == j: assert abs(q(p) - 1.0) < 1e-10 else: assert abs(q(p)) < 1e-10 def test_zero_polynomial(): for m in [1, 2, 3]: x = nsimplex_sampling(m, 1)[0] vertices = np.random.random_sample((m + 1, m)) p = zero_polynomial_simplex(vertices, 1) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert abs(p(x)) < 1e-12 for n in [2, 3]: p = zero_polynomial_simplex(vertices, n) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert np.linalg.norm(p(x)) < 1e-12 # Test zero polynomial expressed in the degree 2 polynomial basis r = 2 for m in [1, 2, 3]: x = nsimplex_sampling(m, 1)[0] vertices = np.random.random_sample((m + 1, m)) p = zero_polynomial_simplex(vertices, r, 1) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert p.degree() == r assert abs(p(x)) < 1e-12 for n in [2, 3]: p = zero_polynomial_simplex(vertices, r, n) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert p.degree() == r assert np.linalg.norm(p(x)) < 1e-12 def test_unit_polynomial(): for m in [1, 2, 3]: x = nsimplex_sampling(m, 1)[0] vertices = np.random.random_sample((m + 1, m)) phi = affine_map_from_unit(vertices) x = phi(x) p = unit_polynomial_simplex(vertices, 0) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert abs(p(x) - 1) < 1e-12 for n in [2, 3]: p = unit_polynomial_simplex(vertices, 0, n) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert np.linalg.norm(p(x) - np.ones(n)) < 1e-12 # Test unit polynomial expressed in the degree 2 polynomial basis r = 2 for m in [1, 2, 3]: x = nsimplex_sampling(m, 1)[0] vertices = np.random.random_sample((m + 1, m)) phi = affine_map_from_unit(vertices) x = phi(x) p = unit_polynomial_simplex(vertices, r, 1) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert p.degree() == r assert abs(p(x) - 1) < 1e-12 for n in [2, 3]: p = unit_polynomial_simplex(vertices, r, n) assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices) assert p.degree() == r assert np.linalg.norm(p(x) - np.ones(n)) < 1e-12 if __name__ == '__main__': pytest.main(sys.argv)
42.279614
118
0.519531
4,283
30,695
3.590007
0.042727
0.036681
0.039802
0.040583
0.900234
0.865895
0.832401
0.795851
0.775494
0.743366
0
0.066029
0.325525
30,695
725
119
42.337931
0.676665
0.047369
0
0.703333
0
0.028333
0.043035
0
0
0
0
0
0.123333
1
0.066667
false
0
0.016667
0.028333
0.115
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
f98b10cf71c867854af6bc4d01a537dcaf468f75
3,783
py
Python
src/causal2020/observables/simperturb.py
hassanobeid1994/tr_b_causal_2020
1ffaeb7dcefccf5e1f24c459e9a2f140b2a052a5
[ "MIT" ]
null
null
null
src/causal2020/observables/simperturb.py
hassanobeid1994/tr_b_causal_2020
1ffaeb7dcefccf5e1f24c459e9a2f140b2a052a5
[ "MIT" ]
89
2020-02-10T02:52:11.000Z
2020-06-23T03:50:27.000Z
src/causal2020/observables/simperturb.py
hassan-obeid/tr_b_causal_2020
1ffaeb7dcefccf5e1f24c459e9a2f140b2a052a5
[ "MIT" ]
null
null
null
# Estimated Probabilities # Perturb Variables based on Assumed Causal Graph # Drive Alone long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 1, "total_travel_time" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 1, "total_travel_distance" ], fitted_reg=fitted_reg_da["total_travel_time_on_total_travel_distance"], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 1].shape[ 0 ], ) long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 1, "total_travel_cost" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 1, "total_travel_distance" ], fitted_reg=fitted_reg_da["total_travel_cost_on_total_travel_distance"], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 1].shape[ 0 ], ) # Shared-2 long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 2, "total_travel_time" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 2, "total_travel_distance" ], fitted_reg=fitted_reg_shared_2[ "total_travel_time_on_total_travel_distance" ], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 2].shape[ 0 ], ) long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 2, "total_travel_cost" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 2, "total_travel_distance" ], fitted_reg=fitted_reg_shared_2[ "total_travel_cost_on_total_travel_distance" ], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 2].shape[ 0 ], ) # Shared 3+ long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 3, "total_travel_time" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 3, "total_travel_distance" ], fitted_reg=fitted_reg_shared_3p[ "total_travel_time_on_total_travel_distance" ], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 3].shape[ 0 ], ) long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 3, "total_travel_cost" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 3, "total_travel_distance" ], fitted_reg=fitted_reg_shared_3p[ "total_travel_cost_on_total_travel_distance" ], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 3].shape[ 0 ], ) # Walk-Transit-Walk long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 4, "total_travel_cost" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 4, "total_travel_time" ], fitted_reg=fitted_reg_wtw["total_travel_cost_on_total_travel_time"], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 4].shape[ 0 ], ) # Drive-Transit-Walk long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 5, "total_travel_cost" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 5, "total_travel_time" ], fitted_reg=fitted_reg_dtw["total_travel_cost_on_total_travel_time"], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 5].shape[ 0 ], ) # Walk-Transit-Drive long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 6, "total_travel_cost" ] = reg.lin_reg_pred( X=long_sim_data_causal.loc[ long_sim_data_causal["mode_id"] == 6, "total_travel_time" ], fitted_reg=fitted_reg_wtd["total_travel_cost_on_total_travel_time"], size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 6].shape[ 0 ], ) #
30.264
78
0.707639
586
3,783
4.008532
0.075085
0.16092
0.252874
0.390805
0.940826
0.940826
0.940826
0.912729
0.912729
0.912729
0
0.013359
0.168914
3,783
124
79
30.508065
0.733779
0.041766
0
0.64486
0
0
0.244813
0.1361
0
0
0
0
0
1
0
true
0
0
0
0
0
0
0
0
null
0
1
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
0
0
0
0
0
9
fb05ad1565bfcb2ff802d167a1e4c3889decf6e7
109
py
Python
coinbase_pro/__init__.py
fakecoinbase/TerrellVslashpython-coinbasepro-api
08865681e3266330bb41c5c34fa9f624bfa624cd
[ "MIT" ]
null
null
null
coinbase_pro/__init__.py
fakecoinbase/TerrellVslashpython-coinbasepro-api
08865681e3266330bb41c5c34fa9f624bfa624cd
[ "MIT" ]
null
null
null
coinbase_pro/__init__.py
fakecoinbase/TerrellVslashpython-coinbasepro-api
08865681e3266330bb41c5c34fa9f624bfa624cd
[ "MIT" ]
null
null
null
from coinbase_pro.api_public import CBProPublic from coinbase_pro.api_authenticated import CBProAuthenticated
54.5
61
0.917431
14
109
6.857143
0.642857
0.25
0.3125
0.375
0
0
0
0
0
0
0
0
0.06422
109
2
61
54.5
0.941176
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
8
fb17ed8604e4823de7f53f4d93687348f8e21502
65
py
Python
jiant/utils/testing/utils.py
yzpang/jiant
192d6b525c06f33010b59044df40cb86bbfba4ea
[ "MIT" ]
1,108
2019-04-22T09:19:19.000Z
2022-03-31T13:23:51.000Z
jiant/utils/testing/utils.py
eric11eca/inference-information-probing
f55156201992cb024edf112e06dd2d7fe09381e4
[ "MIT" ]
737
2019-04-22T14:30:36.000Z
2022-03-31T22:22:17.000Z
jiant/utils/testing/utils.py
eric11eca/inference-information-probing
f55156201992cb024edf112e06dd2d7fe09381e4
[ "MIT" ]
273
2019-04-23T01:42:11.000Z
2022-03-25T15:59:38.000Z
import sys def is_pytest(): return "pytest" in sys.modules
10.833333
34
0.692308
10
65
4.4
0.8
0
0
0
0
0
0
0
0
0
0
0
0.215385
65
5
35
13
0.862745
0
0
0
0
0
0.092308
0
0
0
0
0
0
1
0.333333
true
0
0.333333
0.333333
1
0
1
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
0
1
1
1
0
0
7
9524c5d6db466f7276adceccf7a882ffc0d03dbb
5,461
py
Python
src/vigorish/data/team_data.py
a-luna/vigorish
6cede5ced76c7d2c9ad0aacdbd2b18c2f1ee4ee6
[ "MIT" ]
2
2021-07-15T13:53:33.000Z
2021-07-25T17:03:29.000Z
src/vigorish/data/team_data.py
a-luna/vigorish
6cede5ced76c7d2c9ad0aacdbd2b18c2f1ee4ee6
[ "MIT" ]
650
2019-05-18T07:00:12.000Z
2022-01-21T19:38:55.000Z
src/vigorish/data/team_data.py
a-luna/vigorish
6cede5ced76c7d2c9ad0aacdbd2b18c2f1ee4ee6
[ "MIT" ]
2
2020-03-28T21:01:31.000Z
2022-01-06T05:16:11.000Z
from functools import cached_property from typing import Dict, List from sqlalchemy.engine import Engine from sqlalchemy.orm import Session import vigorish.database as db from vigorish.app import Vigorish from vigorish.data.metrics import BatStatsMetrics, PitchStatsMetrics from vigorish.data.scraped_data import ScrapedData from vigorish.enums import DefensePosition class TeamData: def __init__(self, app: Vigorish, team_id_bbref: str, year: int): self.app = app self.team_id_bbref = team_id_bbref self.year = year self.db_engine: Engine = self.app.db_engine self.db_session: Session = self.app.db_session self.scraped_data: ScrapedData = self.app.scraped_data self.team: db.Team = db.Team.find_by_team_id_and_year(self.db_session, self.team_id_bbref, self.year) @cached_property def pitch_stats(self) -> PitchStatsMetrics: return self.scraped_data.get_pitch_stats_for_team(self.team_id_bbref, self.year) @cached_property def pitch_stats_by_year(self) -> Dict[int, PitchStatsMetrics]: return self.scraped_data.get_pitch_stats_by_year_for_team(self.team_id_bbref) @cached_property def pitch_stats_by_player(self) -> List[PitchStatsMetrics]: return self.scraped_data.get_pitch_stats_by_player_for_team(self.team_id_bbref, self.year) @cached_property def pitch_stats_for_sp(self) -> PitchStatsMetrics: return self.scraped_data.get_pitch_stats_for_sp_for_team(self.team_id_bbref, self.year) @cached_property def pitch_stats_for_sp_by_year(self) -> Dict[int, PitchStatsMetrics]: return self.scraped_data.get_pitch_stats_for_sp_by_year_for_team(self.team_id_bbref) @cached_property def pitch_stats_for_sp_by_player(self) -> List[PitchStatsMetrics]: return self.scraped_data.get_pitch_stats_for_sp_by_player_for_team(self.team_id_bbref, self.year) @cached_property def pitch_stats_for_rp(self) -> PitchStatsMetrics: return self.scraped_data.get_pitch_stats_for_rp_for_team(self.team_id_bbref, self.year) @cached_property def pitch_stats_for_rp_by_year(self) -> Dict[int, PitchStatsMetrics]: return self.scraped_data.get_pitch_stats_for_rp_by_year_for_team(self.team_id_bbref) @cached_property def pitch_stats_for_rp_by_player(self) -> List[PitchStatsMetrics]: return self.scraped_data.get_pitch_stats_for_rp_by_player_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats(self) -> BatStatsMetrics: return self.scraped_data.get_bat_stats_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats_by_year(self) -> Dict[int, BatStatsMetrics]: return self.scraped_data.get_bat_stats_by_year_for_team(self.team_id_bbref) @cached_property def bat_stats_by_player(self) -> List[BatStatsMetrics]: return self.scraped_data.get_bat_stats_by_player_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats_by_lineup_spot(self) -> List[BatStatsMetrics]: return self.scraped_data.get_bat_stats_by_lineup_spot_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats_by_defpos(self) -> List[BatStatsMetrics]: return self.scraped_data.get_bat_stats_by_defpos_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats_for_starters(self) -> BatStatsMetrics: return self.scraped_data.get_bat_stats_for_starters_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats_for_starters_by_year(self) -> Dict[int, BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_starters_by_year_for_team(self.team_id_bbref) @cached_property def bat_stats_for_starters_by_player(self) -> List[BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_starters_by_player_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats_for_subs(self) -> BatStatsMetrics: return self.scraped_data.get_bat_stats_for_subs_for_team(self.team_id_bbref, self.year) @cached_property def bat_stats_for_subs_by_year(self) -> Dict[int, BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_subs_by_year_for_team(self.team_id_bbref) @cached_property def bat_stats_for_subs_by_player(self) -> List[BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_subs_by_player_for_team(self.team_id_bbref, self.year) def get_bat_stats_for_lineup_spot_by_year(self, bat_order_list: List[int]) -> Dict[int, BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_lineup_spot_by_year_for_team(bat_order_list, self.team_id_bbref) def get_bat_stats_for_lineup_spot_by_player(self, bat_order_list: List[int]) -> List[BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_lineup_spot_by_player_for_team( bat_order_list, self.team_id_bbref, self.year ) def get_bat_stats_for_defpos_by_year(self, def_position_list: List[DefensePosition]) -> Dict[int, BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_defpos_by_year_for_team(def_position_list, self.team_id_bbref) def get_bat_stats_for_defpos_by_player(self, def_position_list: List[DefensePosition]) -> List[BatStatsMetrics]: return self.scraped_data.get_bat_stats_for_defpos_by_player_for_team( def_position_list, self.team_id_bbref, self.year )
45.890756
119
0.782824
828
5,461
4.679952
0.066425
0.070194
0.079484
0.100645
0.850581
0.840516
0.809032
0.797677
0.782194
0.759226
0
0
0.141915
5,461
118
120
46.279661
0.826931
0
0
0.222222
0
0
0
0
0
0
0
0
0
1
0.277778
false
0
0.1
0.266667
0.655556
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
1
0
0
9
1f94898196d96a023b8848ff9c80f0039d09e458
25,489
py
Python
tests/test_created__more_statistics.py
ironmussa/Optimus
fbaea6e0957f0bc016280a85ff021904faac20c5
[ "Apache-2.0" ]
1,045
2017-07-17T17:59:46.000Z
2021-06-15T07:06:48.000Z
tests/test_created__more_statistics.py
ironmussa/Optimus
fbaea6e0957f0bc016280a85ff021904faac20c5
[ "Apache-2.0" ]
955
2017-07-14T15:47:58.000Z
2021-05-27T14:16:24.000Z
tests/test_created__more_statistics.py
ironmussa/Optimus
fbaea6e0957f0bc016280a85ff021904faac20c5
[ "Apache-2.0" ]
226
2017-08-04T20:41:33.000Z
2021-05-21T08:28:33.000Z
import datetime import numpy as np from optimus.tests.base import TestBase from optimus.helpers.json import json_encoding from optimus.helpers.functions import deep_sort, df_dicts_equal, results_equal def Timestamp(t): return datetime.datetime.strptime(t, "%Y-%m-%d %H:%M:%S") NaT = np.datetime64('NaT') nan = float("nan") inf = float("inf") class TestMoreStatisticsPandas(TestBase): config = {'engine': 'pandas'} dict = {('id', 'int64'): [1, 2, 3, 4, 5, 6, 7, 8, 9, 10], ('name', 'object'): ['pants', 'shoes', 'shirt', 'pants', 'pants', 'shoes', 'pants', 'pants', 'shirt', 'pants'], ('code', 'object'): ['L15', 'SH', 'RG30', 'J10', 'JG15', 'B', 'JG20', 'L20', 'FT50', 'JG15'], ('price', 'float64'): [173.47, 69.99, 30.0, 34.99, 132.99, 57.99, 179.99, 95.0, 50.0, 169.99], ('discount', 'object'): ['0', '15%', '5%', '0', '0', '20%', '15%', '0', '0', '0']} maxDiff = None def test_cols_boxplot_all(self): df = self.df.copy() result = df.cols.boxplot(cols='*') expected = {'id': {'mean': {'id': 5.5, 'name': nan, 'code': nan, 'price': 99.441, 'discount': 0.0}, 'median': 5.5, 'q1': 3.25, 'q3': 7.75, 'whisker_low': -3.5, 'whisker_high': 14.5, 'fliers': [], 'label': 'id'}, 'name': nan, 'code': nan, 'price': {'mean': {'id': 5.5, 'name': nan, 'code': nan, 'price': 99.441, 'discount': 0.0}, 'median': 82.495, 'q1': 51.9975, 'q3': 160.74, 'whisker_low': -111.11625000000001, 'whisker_high': 323.85375, 'fliers': [], 'label': 'price'}, 'discount': {'mean': {'id': 5.5, 'name': nan, 'code': nan, 'price': 99.441, 'discount': 0.0}, 'median': 0.0, 'q1': 0.0, 'q3': 0.0, 'whisker_low': 0.0, 'whisker_high': 0.0, 'fliers': [], 'label': 'discount'}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_boxplot_multiple(self): df = self.df.copy() result = df.cols.boxplot(cols=['id', 'code', 'discount']) expected = {'id': {'mean': {'id': 5.5, 'code': nan, 'discount': 0.0}, 'median': 5.5, 'q1': 3.25, 'q3': 7.75, 'whisker_low': -3.5, 'whisker_high': 14.5, 'fliers': [], 'label': 'id'}, 'code': nan, 'discount': {'mean': {'id': 5.5, 'code': nan, 'discount': 0.0}, 'median': 0.0, 'q1': 0.0, 'q3': 0.0, 'whisker_low': 0.0, 'whisker_high': 0.0, 'fliers': [], 'label': 'discount'}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_boxplot_numeric(self): df = self.df.copy() result = df.cols.boxplot(cols='price') expected = {'price': {'mean': 99.441, 'median': 82.495, 'q1': 51.9975, 'q3': 160.74, 'whisker_low': -111.11625000000001, 'whisker_high': 323.85375, 'fliers': [], 'label': 'price'}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_all_kendall(self): df = self.df.copy() result = df.cols.correlation('*', 'kendall') expected = {'id': {'id': 1.0, 'price': 0.1111111111111111}, 'price': {'id': 0.1111111111111111, 'price': 1.0}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_all_pearson(self): df = self.df.copy() result = df.cols.correlation('*', 'pearson') expected = {'id': {'id': 1.0, 'price': 0.15785706335886504}, 'price': {'id': 0.15785706335886504, 'price': 1.0}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_all_spearman(self): df = self.df.copy() result = df.cols.correlation('*', 'spearman') expected = {'id': {'id': 1.0, 'price': 0.1393939393939394}, 'price': {'id': 0.1393939393939394, 'price': 1.0}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_multiple_kendall(self): df = self.df.copy() result = df.cols.correlation(['id', 'price'], 'kendall') expected = 0.1111111111111111 self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_multiple_pearson(self): df = self.df.copy() result = df.cols.correlation(['id', 'price'], 'pearson') expected = 0.15785706335886504 self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_multiple_spearman(self): df = self.df.copy() result = df.cols.correlation(['id', 'price'], 'spearman') expected = 0.1393939393939394 self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_numeric_kendall(self): df = self.df.copy() result = df.cols.correlation('price', 'kendall') expected = {'price': {'price': 1.0}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_numeric_pearson(self): df = self.df.copy() result = df.cols.correlation('price', 'pearson') expected = {'price': {'price': 1.0}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_correlation_numeric_spearman(self): df = self.df.copy() result = df.cols.correlation('price', 'spearman') expected = {'price': {'price': 1.0}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_count_uniques_all(self): df = self.df.copy() result = df.cols.count_uniques(cols='*') expected = {'id': 10, 'name': 3, 'code': 9, 'price': 10, 'discount': 4} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_count_uniques_multiple(self): df = self.df.copy() result = df.cols.count_uniques(cols=['id', 'code', 'discount'], estimate=False) expected = {'id': 10, 'code': 9, 'discount': 4} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_count_uniques_numeric(self): df = self.df.copy() result = df.cols.count_uniques(cols='price', estimate=True) expected = 10 self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_count_zeros_all(self): df = self.df.copy() result = df.cols.count_zeros(cols='*') expected = {'id': 0, 'name': 0, 'code': 0, 'price': 0, 'discount': 0} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_count_zeros_multiple(self): df = self.df.copy() result = df.cols.count_zeros(cols=['id', 'code', 'discount']) expected = {'id': 0, 'code': 0, 'discount': 0} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_count_zeros_numeric(self): df = self.df.copy() result = df.cols.count_zeros(cols='price') expected = 0 self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_frequency_all(self): df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True) result = df.cols.frequency(cols='*', n=10, count_uniques=True) expected = {'frequency': {'vf': {'values': [{'value': 9.9, 'count': 4}, {'value': 3.3000000000000003, 'count': 3}, {'value': 0.0, 'count': 2}, {'value': 1.1, 'count': 2}, {'value': 22.0, 'count': 2}, {'value': 4.4, 'count': 1}], 'count_uniques': 6}, 'vs': {'values': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}, {'value': 'STR4', 'count': 1}], 'count_uniques': 6}, 'values': {'values': [{'value': 9, 'count': 4}, {'value': 3, 'count': 3}, {'value': 0, 'count': 2}, {'value': 1, 'count': 2}, {'value': 20, 'count': 2}, {'value': 4, 'count': 1}], 'count_uniques': 6}, 'o': {'values': [{'value': 1, 'count': 5}, {'value': 3, 'count': 3}, {'value': 9, 'count': 1}, {'value': [9], 'count': 1}, {'value': 'nine', 'count': 1}, {'value': {'nine': 9}, 'count': 1}], 'count_uniques': 6}}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_frequency_multiple(self): df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True) result = df.cols.frequency(cols=['vs', 'vf'], n=6, percentage=True) expected = {'frequency': {'vs': {'values': [{'value': 'STR9', 'count': 4, 'percentage': 28.57}, {'value': 'STR3', 'count': 3, 'percentage': 21.43}, {'value': 'STR0', 'count': 2, 'percentage': 14.29}, {'value': 'STR1', 'count': 2, 'percentage': 14.29}, {'value': 'STR20', 'count': 2, 'percentage': 14.29}, {'value': 'STR4', 'count': 1, 'percentage': 7.14}]}, 'vf': {'values': [{'value': 9.9, 'count': 4, 'percentage': 28.57}, {'value': 3.3000000000000003, 'count': 3, 'percentage': 21.43}, {'value': 0.0, 'count': 2, 'percentage': 14.29}, {'value': 1.1, 'count': 2, 'percentage': 14.29}, {'value': 22.0, 'count': 2, 'percentage': 14.29}, {'value': 4.4, 'count': 1, 'percentage': 7.14}]}}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_frequency_numeric(self): df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True) result = df.cols.frequency(cols='values', n=4, percentage=True, total_rows=3) expected = {'frequency': {'values': {'values': [{'value': 9, 'count': 4, 'percentage': 28.57}, {'value': 3, 'count': 3, 'percentage': 21.43}, {'value': 1, 'count': 2, 'percentage': 14.29}, {'value': 20, 'count': 2, 'percentage': 14.29}]}}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_frequency_string(self): df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True) result = df.cols.frequency(cols='vs', n=5, percentage=False) expected = {'frequency': {'vs': {'values': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}]}}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_heatmap_numeric_numeric(self): df = self.df.copy() result = df.cols.heatmap(col_x='discount', col_y='price', bins_x=5, bins_y=10) expected = {'x': {'name': 'discount', 'edges': [-0.5, 0.5]}, 'y': {'name': 'price', 'edges': [34.99, 173.47]}, 'values': [[0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 2.0, 0.0, 0.0]]} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_heatmap_numeric_string(self): df = self.df.copy() result = df.cols.heatmap(col_x='price', col_y='code', bins_x=3, bins_y=1) expected = {'x': {'name': 'price', 'edges': [0.0, 1.0]}, 'y': {'name': 'code', 'edges': [0.0, 1.0]}, 'values': [[0.0, 0.0, 0.0]]} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_heatmap_string_numeric(self): df = self.df.copy() result = df.cols.heatmap(col_x='name', col_y='id', bins_x=7, bins_y=10) expected = {'x': {'name': 'name', 'edges': [0.0, 1.0]}, 'y': {'name': 'id', 'edges': [0.0, 1.0]}, 'values': [[0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0]]} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_heatmap_string_string(self): df = self.df.copy() result = df.cols.heatmap(col_x='code', col_y='name', bins_x=4, bins_y=4) expected = {'x': {'name': 'code', 'edges': [0.0, 1.0]}, 'y': {'name': 'name', 'edges': [0.0, 1.0]}, 'values': [[0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0]]} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_hist_all(self): df = self.df.copy() result = df.cols.hist(cols='*', buckets=2) expected = {'hist': {'id': [{'lower': 1.0, 'upper': 5.5, 'count': 5}, {'lower': 5.5, 'upper': 10.0, 'count': 5}], 'price': [{'lower': 30.0, 'upper': 104.995, 'count': 6}, {'lower': 104.995, 'upper': 179.99, 'count': 4}], 'discount': [{'lower': 0.0, 'upper': 0.0, 'count': 6}]}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_hist_multiple(self): df = self.df.copy() result = df.cols.hist(cols=['id', 'code', 'discount'], buckets=4) expected = {'hist': {'id': [{'lower': 1.0, 'upper': 3.25, 'count': 3}, {'lower': 3.25, 'upper': 5.5, 'count': 2}, {'lower': 5.5, 'upper': 7.75, 'count': 2}, {'lower': 7.75, 'upper': 10.0, 'count': 3}], 'discount': [{'lower': 0.0, 'upper': 0.0, 'count': 6}]}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_hist_numeric(self): df = self.df.copy() result = df.cols.hist(cols='price', buckets=10) expected = {'hist': {'price': [{'lower': 30.0, 'upper': 44.999, 'count': 2}, {'lower': 44.999, 'upper': 59.998000000000005, 'count': 2}, {'lower': 59.998000000000005, 'upper': 74.997, 'count': 1}, {'lower': 74.997, 'upper': 89.99600000000001, 'count': 0}, {'lower': 89.99600000000001, 'upper': 104.995, 'count': 1}, {'lower': 104.995, 'upper': 119.994, 'count': 0}, {'lower': 119.994, 'upper': 134.993, 'count': 1}, {'lower': 134.993, 'upper': 149.99200000000002, 'count': 0}, {'lower': 149.99200000000002, 'upper': 164.991, 'count': 0}, {'lower': 164.991, 'upper': 179.99, 'count': 3}]}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_infer_type_all(self): df = self.df.copy() result = df.cols.infer_type(cols='*') expected = {'id': {'data_type': 'int', 'categorical': True}, 'name': {'data_type': 'str', 'categorical': True}, 'code': {'data_type': 'str', 'categorical': True}, 'price': {'data_type': 'float', 'categorical': True}, 'discount': {'data_type': 'int', 'categorical': True}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_infer_type_multiple(self): df = self.df.copy() result = df.cols.infer_type(cols=['id', 'code', 'discount']) expected = {'id': {'data_type': 'int', 'categorical': True}, 'code': {'data_type': 'str', 'categorical': True}, 'discount': {'data_type': 'int', 'categorical': True}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_infer_type_numeric(self): df = self.df.copy() result = df.cols.infer_type(cols='price') expected = {'data_type': 'float', 'categorical': True} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_profile_all(self): df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True) result = df.cols.profile(cols='*') expected = [{'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'float', 'categorical': True}, 'frequency': [{'value': 9.9, 'count': 4}, {'value': 3.3000000000000003, 'count': 3}, {'value': 0.0, 'count': 2}, {'value': 1.1, 'count': 2}, {'value': 22.0, 'count': 2}, {'value': 4.4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'float64'}, {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'str', 'categorical': True}, 'frequency': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}, {'value': 'STR4', 'count': 1}], 'count_uniques': 6}, 'data_type': 'object'}, {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'int', 'categorical': True}, 'frequency': [{'value': 9, 'count': 4}, {'value': 3, 'count': 3}, {'value': 0, 'count': 2}, {'value': 1, 'count': 2}, {'value': 20, 'count': 2}, {'value': 4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'int64'}, {'stats': {'match': 9, 'missing': 2, 'mismatch': 3, 'inferred_data_type': {'data_type': 'int', 'categorical': True}, 'frequency': [{'value': 1, 'count': 5}, {'value': 3, 'count': 3}, {'value': 9, 'count': 1}, {'value': [9], 'count': 1}, {'value': 'nine', 'count': 1}, {'value': {'nine': 9}, 'count': 1}], 'count_uniques': 6}, 'data_type': 'object'}] self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_profile_multiple(self): df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True) result = df.cols.profile(cols=['vs', 'vf'], bins=8, flush=False) expected = [{'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'str', 'categorical': True}, 'frequency': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}, {'value': 'STR4', 'count': 1}], 'count_uniques': 6}, 'data_type': 'object'}, {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'float', 'categorical': True}, 'frequency': [{'value': 9.9, 'count': 4}, {'value': 3.3000000000000003, 'count': 3}, {'value': 0.0, 'count': 2}, {'value': 1.1, 'count': 2}, {'value': 22.0, 'count': 2}, {'value': 4.4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'float64'}] self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_profile_numeric(self): df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True) result = df.cols.profile(cols='values', bins=10, flush=True) expected = {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'int', 'categorical': True}, 'frequency': [{'value': 9, 'count': 4}, {'value': 3, 'count': 3}, {'value': 0, 'count': 2}, {'value': 1, 'count': 2}, {'value': 20, 'count': 2}, {'value': 4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'int64'} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_quality_all(self): df = self.df.copy() result = df.cols.quality(cols='*') expected = {'id': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'int'}, 'name': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'str'}, 'code': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'str'}, 'price': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'float'}, 'discount': {'match': 6, 'missing': 0, 'mismatch': 4, 'inferred_data_type': 'int'}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_quality_multiple(self): df = self.df.copy() result = df.cols.quality(cols=['id', 'code', 'discount'], flush=False) expected = {'id': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'int'}, 'code': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'str'}, 'discount': {'match': 6, 'missing': 0, 'mismatch': 4, 'inferred_data_type': 'int'}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_quality_numeric(self): df = self.df.copy() result = df.cols.quality(cols='price', flush=True) expected = {'price': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'float'}} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_unique_values_all(self): df = self.df.copy() result = df.cols.unique_values(cols='*') expected = {'id': ['1', '2', '3', '4', '5', '6', '7', '8', '9', '10'], 'name': ['pants', 'shoes', 'shirt'], 'code': ['L15', 'SH', 'RG30', 'J10', 'JG15', 'B', 'JG20', 'L20', 'FT50'], 'price': ['173.47', '69.99', '30.0', '34.99', '132.99', '57.99', '179.99', '95.0', '50.0', '169.99'], 'discount': ['0', '15%', '5%', '20%']} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_unique_values_multiple(self): df = self.df.copy() result = df.cols.unique_values(cols=['id', 'code', 'discount'], estimate=False) expected = {'id': ['1', '2', '3', '4', '5', '6', '7', '8', '9', '10'], 'code': ['L15', 'SH', 'RG30', 'J10', 'JG15', 'B', 'JG20', 'L20', 'FT50'], 'discount': ['0', '15%', '5%', '20%']} self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) def test_cols_unique_values_numeric(self): df = self.df.copy() result = df.cols.unique_values(cols='price', estimate=True) expected = ['173.47', '69.99', '30.0', '34.99', '132.99', '57.99', '179.99', '95.0', '50.0', '169.99'] self.assertTrue(results_equal(result, expected, decimal=5, assertion=True)) class TestMoreStatisticsDask(TestMoreStatisticsPandas): config = {'engine': 'dask', 'n_partitions': 1} class TestMoreStatisticsPartitionDask(TestMoreStatisticsPandas): config = {'engine': 'dask', 'n_partitions': 2} try: import cudf # pyright: reportMissingImports=false except: pass else: class TestMoreStatisticsCUDF(TestMoreStatisticsPandas): config = {'engine': 'cudf'} try: import dask_cudf # pyright: reportMissingImports=false except: pass else: class TestMoreStatisticsDC(TestMoreStatisticsPandas): config = {'engine': 'dask_cudf', 'n_partitions': 1} try: import dask_cudf # pyright: reportMissingImports=false except: pass else: class TestMoreStatisticsPartitionDC(TestMoreStatisticsPandas): config = {'engine': 'dask_cudf', 'n_partitions': 2} try: import pyspark # pyright: reportMissingImports=false except: pass else: class TestMoreStatisticsSpark(TestMoreStatisticsPandas): config = {'engine': 'spark'} try: import vaex # pyright: reportMissingImports=false except: pass else: class TestMoreStatisticsVaex(TestMoreStatisticsPandas): config = {'engine': 'vaex'}
79.653125
1,433
0.586763
3,723
25,489
3.928284
0.060435
0.044308
0.055385
0.069197
0.852923
0.834872
0.806974
0.767795
0.745983
0.737915
0
0.117993
0.165758
25,489
319
1,434
79.902821
0.569789
0.007023
0
0.414729
0
0
0.213445
0
0
0
0
0
0.158915
1
0.162791
false
0.01938
0.03876
0.003876
0.275194
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
2f11de0715eca3e251fe49c72077a957cac5b0fa
2,987
py
Python
character.py
timothydillan/turnaround-battle-game
acb5d35910386187e125fad5b612339798b3157b
[ "CC0-1.0" ]
null
null
null
character.py
timothydillan/turnaround-battle-game
acb5d35910386187e125fad5b612339798b3157b
[ "CC0-1.0" ]
null
null
null
character.py
timothydillan/turnaround-battle-game
acb5d35910386187e125fad5b612339798b3157b
[ "CC0-1.0" ]
2
2020-03-01T06:17:47.000Z
2020-03-03T02:33:48.000Z
# Initialize libraries needed for the class. # All things taken from the internet are put in referenceList.txt from random import randint import self from setup import * # Declare a warrior class for the units. class Warrior: # Initialize attributes of a Warrior def __init__(self, name, health, attack, defend, experience, rank): self.name = name self.health = health self.attack = attack self.defend = defend self.experience = experience self.rank = rank self.job = "Warrior" def create(self): # A function to create a warrior with predefined values. We'll change it later on setup.py. warriorChar = Warrior("Alice", 100, randint(10, 20), randint(5, 10), 0, 1,) return warriorChar def checkLevelUp(self): # A function that automatically levels up the current unit, and resets the xp if xp is 100. if self.experience > 99: self.rank += 1 self.attack = round(self.attack * 1.05, 2) self.defend = round(self.defend * 1.05, 2) self.experience = 0 def checkDie(self): # A function that checks if a player is dead. if self.health <= 0: # if the player has a hp below or is 0 # then set all attributes to 0, except for defend. # We set defend to a large value, so that the AI does not attack a dead player. self.health = 0 self.attack = 0 self.defend = 1000000 self.experience = 0 # Delcare a Tanker class for the units. class Tanker: # Initialize attributes of a Warrior def __init__(self, name, health, attack, defend, experience, rank): self.name = name self.health = health self.attack = attack self.defend = defend self.experience = experience self.rank = rank self.job = "Tanker" def create(self): # A function to create a warrior with predefined values. We'll change it later on setup.py. tankerChar = Tanker("Bob", 100, randint(5, 10), randint(10, 20), 0, 1,) return tankerChar def checkLevelUp(self): # A function that automatically levels up the current unit, and resets the xp if xp is 100. if self.experience > 99: self.rank += 1 self.attack = round(self.attack * 1.05, 2) self.defend = round(self.defend * 1.05, 2) self.experience = 0 def checkDie(self): # A function that checks if a player is dead. if self.health <= 0: # if the player has a hp below or is 0 # then set all attributes to 0, except for defend. # We set defend to a large value, so that the AI does not attack a dead player. self.health = 0 self.attack = 0 self.defend = 1000000 self.experience = 0
38.294872
100
0.588216
402
2,987
4.350746
0.238806
0.04574
0.044597
0.038879
0.81761
0.793596
0.793596
0.793596
0.793596
0.793596
0
0.040445
0.337797
2,987
77
101
38.792208
0.843782
0.344493
0
0.784314
0
0
0.011278
0
0
0
0
0
0
1
0.156863
false
0
0.058824
0
0.294118
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
2f4c18fc337a32422fb81d37fd02223c8edff190
3,359
py
Python
test/test_macro/internal/test_alias_all.py
NikkaZ/dbtvault_spark
383723cd2a35a0bc7b82fd4e77fb1eda0f68cb07
[ "Apache-2.0" ]
null
null
null
test/test_macro/internal/test_alias_all.py
NikkaZ/dbtvault_spark
383723cd2a35a0bc7b82fd4e77fb1eda0f68cb07
[ "Apache-2.0" ]
null
null
null
test/test_macro/internal/test_alias_all.py
NikkaZ/dbtvault_spark
383723cd2a35a0bc7b82fd4e77fb1eda0f68cb07
[ "Apache-2.0" ]
null
null
null
import pytest from test import dbtvault_harness_utils macro_name = "alias_all" @pytest.mark.macro def test_alias_all_correctly_generates_sql_for_full_alias_list_with_prefix(request, generate_model): var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"}, {"source_column": "ORDER_HASHDIFF", "alias": "HASHDIFF"}, {"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}], 'prefix': 'c'} generate_model() dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name], args=var_dict) actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name) expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request) assert dbtvault_harness_utils.is_successful_run(dbt_logs) assert actual_sql == expected_sql @pytest.mark.macro def test_alias_all_correctly_generates_sql_for_partial_alias_list_with_prefix(request, generate_model): var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"}, "ORDER_HASHDIFF", {"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}], 'prefix': 'c'} generate_model() dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name], args=var_dict) actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name) expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request) assert dbtvault_harness_utils.is_successful_run(dbt_logs) assert actual_sql == expected_sql @pytest.mark.macro def test_alias_all_correctly_generates_sql_for_full_alias_list_without_prefix(request, generate_model): var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"}, {"source_column": "ORDER_HASHDIFF", "alias": "HASHDIFF"}, {"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}]} generate_model() dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name], args=var_dict) actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name) expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request) assert dbtvault_harness_utils.is_successful_run(dbt_logs) assert actual_sql == expected_sql @pytest.mark.macro def test_alias_all_correctly_generates_sql_for_partial_alias_list_without_prefix(request, generate_model): var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"}, "ORDER_HASHDIFF", {"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}]} generate_model() dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name], args=var_dict) actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name) expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request) assert dbtvault_harness_utils.is_successful_run(dbt_logs) assert actual_sql == expected_sql
41.9875
106
0.676689
376
3,359
5.571809
0.132979
0.121718
0.162291
0.087828
0.969928
0.969928
0.969928
0.969928
0.969928
0.969928
0
0
0.225365
3,359
79
107
42.518987
0.80515
0
0
0.867925
1
0
0.148556
0
0
0
0
0
0.150943
1
0.075472
false
0
0.037736
0
0.113208
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
2f829e477db4114b1fc4605bf179117123c1a1f5
154
py
Python
tests/apps/blazewebtestapp2/components/tests/tasks/init_db.py
blazelibs/blazeweb
b120a6a2e38c8b53da2b73443ff242e2d1438053
[ "BSD-3-Clause" ]
null
null
null
tests/apps/blazewebtestapp2/components/tests/tasks/init_db.py
blazelibs/blazeweb
b120a6a2e38c8b53da2b73443ff242e2d1438053
[ "BSD-3-Clause" ]
6
2016-11-01T18:42:34.000Z
2020-11-16T16:52:14.000Z
tests/apps/blazewebtestapp2/components/tests/tasks/init_db.py
blazelibs/blazeweb
b120a6a2e38c8b53da2b73443ff242e2d1438053
[ "BSD-3-Clause" ]
1
2020-01-22T18:20:46.000Z
2020-01-22T18:20:46.000Z
loc = 'blazewebtestapp2.components.tests.tasks.init_db' loctoo = 'blazewebtestapp2.components.tests.tasks.init_db' def action_001(): return loctoo
19.25
58
0.779221
19
154
6.157895
0.631579
0.444444
0.529915
0.615385
0.717949
0.717949
0
0
0
0
0
0.036496
0.11039
154
7
59
22
0.817518
0
0
0
0
0
0.614379
0.614379
0
0
0
0
0
1
0.25
false
0
0
0.25
0.5
0
1
0
0
null
1
1
1
0
1
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
1
1
null
0
0
0
0
0
1
0
0
0
1
0
0
0
10
c8319920f118ade000c880235376e6e50635beee
59,012
py
Python
nova/tests/unit/cmd/test_idmapshift.py
bopopescu/nova-token
ec98f69dea7b3e2b9013b27fd55a2c1a1ac6bfb2
[ "Apache-2.0" ]
null
null
null
nova/tests/unit/cmd/test_idmapshift.py
bopopescu/nova-token
ec98f69dea7b3e2b9013b27fd55a2c1a1ac6bfb2
[ "Apache-2.0" ]
null
null
null
nova/tests/unit/cmd/test_idmapshift.py
bopopescu/nova-token
ec98f69dea7b3e2b9013b27fd55a2c1a1ac6bfb2
[ "Apache-2.0" ]
2
2017-07-20T17:31:34.000Z
2020-07-24T02:42:19.000Z
begin_unit comment|'# Copyright 2014 Rackspace, Andrew Melton' nl|'\n' comment|'#' nl|'\n' comment|'# Licensed under the Apache License, Version 2.0 (the "License");' nl|'\n' comment|'# you may not use this file except in compliance with the License.' nl|'\n' comment|'# You may obtain a copy of the License at' nl|'\n' comment|'#' nl|'\n' comment|'# http://www.apache.org/licenses/LICENSE-2.0' nl|'\n' comment|'#' nl|'\n' comment|'# Unless required by applicable law or agreed to in writing, software' nl|'\n' comment|'# distributed under the License is distributed on an "AS IS" BASIS,' nl|'\n' comment|'# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.' nl|'\n' comment|'# See the License for the specific language governing permissions and' nl|'\n' comment|'# limitations under the License.' nl|'\n' nl|'\n' name|'import' name|'argparse' newline|'\n' nl|'\n' name|'import' name|'mock' newline|'\n' nl|'\n' name|'from' name|'nova' op|'.' name|'cmd' name|'import' name|'idmapshift' newline|'\n' name|'from' name|'nova' name|'import' name|'test' newline|'\n' nl|'\n' nl|'\n' DECL|function|join_side_effect name|'def' name|'join_side_effect' op|'(' name|'root' op|',' op|'*' name|'args' op|')' op|':' newline|'\n' indent|' ' name|'path' op|'=' name|'root' newline|'\n' name|'if' name|'root' op|'!=' string|"'/'" op|':' newline|'\n' indent|' ' name|'path' op|'+=' string|"'/'" newline|'\n' dedent|'' name|'path' op|'+=' string|"'/'" op|'.' name|'join' op|'(' name|'args' op|')' newline|'\n' name|'return' name|'path' newline|'\n' nl|'\n' nl|'\n' DECL|class|FakeStat dedent|'' name|'class' name|'FakeStat' op|'(' name|'object' op|')' op|':' newline|'\n' DECL|member|__init__ indent|' ' name|'def' name|'__init__' op|'(' name|'self' op|',' name|'uid' op|',' name|'gid' op|')' op|':' newline|'\n' indent|' ' name|'self' op|'.' name|'st_uid' op|'=' name|'uid' newline|'\n' name|'self' op|'.' name|'st_gid' op|'=' name|'gid' newline|'\n' nl|'\n' nl|'\n' DECL|class|BaseTestCase dedent|'' dedent|'' name|'class' name|'BaseTestCase' op|'(' name|'test' op|'.' name|'NoDBTestCase' op|')' op|':' newline|'\n' DECL|member|__init__ indent|' ' name|'def' name|'__init__' op|'(' name|'self' op|',' op|'*' name|'args' op|',' op|'**' name|'kwargs' op|')' op|':' newline|'\n' indent|' ' name|'super' op|'(' name|'BaseTestCase' op|',' name|'self' op|')' op|'.' name|'__init__' op|'(' op|'*' name|'args' op|',' op|'**' name|'kwargs' op|')' newline|'\n' name|'self' op|'.' name|'uid_maps' op|'=' op|'[' op|'(' number|'0' op|',' number|'10000' op|',' number|'10' op|')' op|',' op|'(' number|'10' op|',' number|'20000' op|',' number|'1000' op|')' op|']' newline|'\n' name|'self' op|'.' name|'gid_maps' op|'=' op|'[' op|'(' number|'0' op|',' number|'10000' op|',' number|'10' op|')' op|',' op|'(' number|'10' op|',' number|'20000' op|',' number|'1000' op|')' op|']' newline|'\n' nl|'\n' nl|'\n' DECL|class|FindTargetIDTestCase dedent|'' dedent|'' name|'class' name|'FindTargetIDTestCase' op|'(' name|'BaseTestCase' op|')' op|':' newline|'\n' DECL|member|test_find_target_id_range_1_first indent|' ' name|'def' name|'test_find_target_id_range_1_first' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'0' op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'10000' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' DECL|member|test_find_target_id_inside_range_1 dedent|'' name|'def' name|'test_find_target_id_inside_range_1' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'2' op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'10002' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' DECL|member|test_find_target_id_range_2_first dedent|'' name|'def' name|'test_find_target_id_range_2_first' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'10' op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'20000' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' DECL|member|test_find_target_id_inside_range_2 dedent|'' name|'def' name|'test_find_target_id_inside_range_2' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'100' op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'20090' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' DECL|member|test_find_target_id_outside_range dedent|'' name|'def' name|'test_find_target_id_outside_range' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'10000' op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' DECL|member|test_find_target_id_no_mappings dedent|'' name|'def' name|'test_find_target_id_no_mappings' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'0' op|',' op|'[' op|']' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' DECL|member|test_find_target_id_updates_memo dedent|'' name|'def' name|'test_find_target_id_updates_memo' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'memo' op|'=' name|'dict' op|'(' op|')' newline|'\n' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'0' op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'memo' op|')' newline|'\n' name|'self' op|'.' name|'assertIn' op|'(' number|'0' op|',' name|'memo' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'10000' op|',' name|'memo' op|'[' number|'0' op|']' op|')' newline|'\n' nl|'\n' DECL|member|test_find_target_guest_id_greater_than_count dedent|'' name|'def' name|'test_find_target_guest_id_greater_than_count' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'uid_maps' op|'=' op|'[' op|'(' number|'500' op|',' number|'10000' op|',' number|'10' op|')' op|']' newline|'\n' nl|'\n' comment|'# Below range' nl|'\n' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'499' op|',' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' comment|'# Match' nl|'\n' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'501' op|',' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'10001' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' comment|'# Beyond range' nl|'\n' name|'actual_target' op|'=' name|'idmapshift' op|'.' name|'find_target_id' op|'(' number|'510' op|',' name|'uid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'actual_target' op|')' newline|'\n' nl|'\n' nl|'\n' DECL|class|ShiftPathTestCase dedent|'' dedent|'' name|'class' name|'ShiftPathTestCase' op|'(' name|'BaseTestCase' op|')' op|':' newline|'\n' indent|' ' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lchown'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_shift_path name|'def' name|'test_shift_path' op|'(' name|'self' op|',' name|'mock_lstat' op|',' name|'mock_lchown' op|')' op|':' newline|'\n' indent|' ' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' newline|'\n' name|'idmapshift' op|'.' name|'shift_path' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|',' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'mock_lchown' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' number|'10000' op|',' number|'10000' op|')' op|']' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lchown'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_shift_path_dry_run name|'def' name|'test_shift_path_dry_run' op|'(' name|'self' op|',' name|'mock_lstat' op|',' name|'mock_lchown' op|')' op|':' newline|'\n' indent|' ' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' newline|'\n' name|'idmapshift' op|'.' name|'shift_path' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|',' name|'dict' op|'(' op|')' op|',' nl|'\n' name|'dry_run' op|'=' name|'True' op|')' newline|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'0' op|',' name|'len' op|'(' name|'mock_lchown' op|'.' name|'mock_calls' op|')' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lchown'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.print_chown'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_shift_path_verbose name|'def' name|'test_shift_path_verbose' op|'(' name|'self' op|',' name|'mock_lstat' op|',' name|'mock_print' op|',' name|'mock_lchown' op|')' op|':' newline|'\n' indent|' ' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' newline|'\n' name|'idmapshift' op|'.' name|'shift_path' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dict' op|'(' op|')' op|',' name|'dict' op|'(' op|')' op|',' nl|'\n' name|'verbose' op|'=' name|'True' op|')' newline|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'mock_print_call' op|'=' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' number|'0' op|',' number|'0' op|',' number|'10000' op|',' number|'10000' op|')' newline|'\n' name|'mock_print' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock_print_call' op|']' op|')' newline|'\n' name|'mock_lchown' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' number|'10000' op|',' number|'10000' op|')' op|']' op|')' newline|'\n' nl|'\n' nl|'\n' DECL|class|ShiftDirTestCase dedent|'' dedent|'' name|'class' name|'ShiftDirTestCase' op|'(' name|'BaseTestCase' op|')' op|':' newline|'\n' indent|' ' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.shift_path'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_shift_dir name|'def' name|'test_shift_dir' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' name|'mock_shift_path' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|']' op|',' op|'[' string|"'c'" op|',' string|"'d'" op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'shift_dir' op|'(' string|"'/'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' nl|'\n' name|'files' op|'=' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|',' string|"'d'" op|']' newline|'\n' name|'mock_walk' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|')' op|']' op|')' newline|'\n' name|'mock_join_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' name|'x' op|')' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_join' op|'.' name|'assert_has_calls' op|'(' name|'mock_join_calls' op|')' newline|'\n' nl|'\n' name|'args' op|'=' op|'(' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'kwargs' op|'=' name|'dict' op|'(' name|'dry_run' op|'=' name|'False' op|',' name|'verbose' op|'=' name|'False' op|',' nl|'\n' name|'uid_memo' op|'=' name|'dict' op|'(' op|')' op|',' name|'gid_memo' op|'=' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'shift_path_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' op|'*' name|'args' op|',' op|'**' name|'kwargs' op|')' op|']' newline|'\n' name|'shift_path_calls' op|'+=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|'+' name|'x' op|',' op|'*' name|'args' op|',' op|'**' name|'kwargs' op|')' nl|'\n' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_shift_path' op|'.' name|'assert_has_calls' op|'(' name|'shift_path_calls' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.shift_path'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_shift_dir_dry_run name|'def' name|'test_shift_dir_dry_run' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' name|'mock_shift_path' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|']' op|',' op|'[' string|"'c'" op|',' string|"'d'" op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'shift_dir' op|'(' string|"'/'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dry_run' op|'=' name|'True' op|')' newline|'\n' nl|'\n' name|'mock_walk' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|')' op|']' op|')' newline|'\n' nl|'\n' name|'files' op|'=' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|',' string|"'d'" op|']' newline|'\n' name|'mock_join_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' name|'x' op|')' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_join' op|'.' name|'assert_has_calls' op|'(' name|'mock_join_calls' op|')' newline|'\n' nl|'\n' name|'args' op|'=' op|'(' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'kwargs' op|'=' name|'dict' op|'(' name|'dry_run' op|'=' name|'True' op|',' name|'verbose' op|'=' name|'False' op|',' nl|'\n' name|'uid_memo' op|'=' name|'dict' op|'(' op|')' op|',' name|'gid_memo' op|'=' name|'dict' op|'(' op|')' op|')' newline|'\n' name|'shift_path_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' op|'*' name|'args' op|',' op|'**' name|'kwargs' op|')' op|']' newline|'\n' name|'shift_path_calls' op|'+=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|'+' name|'x' op|',' op|'*' name|'args' op|',' op|'**' name|'kwargs' op|')' nl|'\n' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_shift_path' op|'.' name|'assert_has_calls' op|'(' name|'shift_path_calls' op|')' newline|'\n' nl|'\n' nl|'\n' DECL|class|ConfirmPathTestCase dedent|'' dedent|'' name|'class' name|'ConfirmPathTestCase' op|'(' name|'test' op|'.' name|'NoDBTestCase' op|')' op|':' newline|'\n' indent|' ' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_confirm_path name|'def' name|'test_confirm_path' op|'(' name|'self' op|',' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'uid_ranges' op|'=' op|'[' op|'(' number|'1000' op|',' number|'1999' op|')' op|']' newline|'\n' name|'gid_ranges' op|'=' op|'[' op|'(' number|'300' op|',' number|'399' op|')' op|']' newline|'\n' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'1000' op|',' number|'301' op|')' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_path' op|'(' string|"'/test/path'" op|',' name|'uid_ranges' op|',' name|'gid_ranges' op|',' nl|'\n' number|'50000' op|')' newline|'\n' nl|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'self' op|'.' name|'assertTrue' op|'(' name|'result' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_confirm_path_nobody name|'def' name|'test_confirm_path_nobody' op|'(' name|'self' op|',' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'uid_ranges' op|'=' op|'[' op|'(' number|'1000' op|',' number|'1999' op|')' op|']' newline|'\n' name|'gid_ranges' op|'=' op|'[' op|'(' number|'300' op|',' number|'399' op|')' op|']' newline|'\n' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'50000' op|',' number|'50000' op|')' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_path' op|'(' string|"'/test/path'" op|',' name|'uid_ranges' op|',' name|'gid_ranges' op|',' nl|'\n' number|'50000' op|')' newline|'\n' nl|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'self' op|'.' name|'assertTrue' op|'(' name|'result' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_confirm_path_uid_mismatch name|'def' name|'test_confirm_path_uid_mismatch' op|'(' name|'self' op|',' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'uid_ranges' op|'=' op|'[' op|'(' number|'1000' op|',' number|'1999' op|')' op|']' newline|'\n' name|'gid_ranges' op|'=' op|'[' op|'(' number|'300' op|',' number|'399' op|')' op|']' newline|'\n' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'0' op|',' number|'301' op|')' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_path' op|'(' string|"'/test/path'" op|',' name|'uid_ranges' op|',' name|'gid_ranges' op|',' nl|'\n' number|'50000' op|')' newline|'\n' nl|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'self' op|'.' name|'assertFalse' op|'(' name|'result' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_confirm_path_gid_mismatch name|'def' name|'test_confirm_path_gid_mismatch' op|'(' name|'self' op|',' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'uid_ranges' op|'=' op|'[' op|'(' number|'1000' op|',' number|'1999' op|')' op|']' newline|'\n' name|'gid_ranges' op|'=' op|'[' op|'(' number|'300' op|',' number|'399' op|')' op|']' newline|'\n' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'1000' op|',' number|'0' op|')' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_path' op|'(' string|"'/test/path'" op|',' name|'uid_ranges' op|',' name|'gid_ranges' op|',' nl|'\n' number|'50000' op|')' newline|'\n' nl|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'self' op|'.' name|'assertFalse' op|'(' name|'result' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_confirm_path_uid_nobody name|'def' name|'test_confirm_path_uid_nobody' op|'(' name|'self' op|',' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'uid_ranges' op|'=' op|'[' op|'(' number|'1000' op|',' number|'1999' op|')' op|']' newline|'\n' name|'gid_ranges' op|'=' op|'[' op|'(' number|'300' op|',' number|'399' op|')' op|']' newline|'\n' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'50000' op|',' number|'301' op|')' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_path' op|'(' string|"'/test/path'" op|',' name|'uid_ranges' op|',' name|'gid_ranges' op|',' nl|'\n' number|'50000' op|')' newline|'\n' nl|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'self' op|'.' name|'assertTrue' op|'(' name|'result' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' DECL|member|test_confirm_path_gid_nobody name|'def' name|'test_confirm_path_gid_nobody' op|'(' name|'self' op|',' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'uid_ranges' op|'=' op|'[' op|'(' number|'1000' op|',' number|'1999' op|')' op|']' newline|'\n' name|'gid_ranges' op|'=' op|'[' op|'(' number|'300' op|',' number|'399' op|')' op|']' newline|'\n' name|'mock_lstat' op|'.' name|'return_value' op|'=' name|'FakeStat' op|'(' number|'1000' op|',' number|'50000' op|')' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_path' op|'(' string|"'/test/path'" op|',' name|'uid_ranges' op|',' name|'gid_ranges' op|',' nl|'\n' number|'50000' op|')' newline|'\n' nl|'\n' name|'mock_lstat' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|')' op|']' op|')' newline|'\n' name|'self' op|'.' name|'assertTrue' op|'(' name|'result' op|')' newline|'\n' nl|'\n' nl|'\n' DECL|class|ConfirmDirTestCase dedent|'' dedent|'' name|'class' name|'ConfirmDirTestCase' op|'(' name|'BaseTestCase' op|')' op|':' newline|'\n' DECL|member|setUp indent|' ' name|'def' name|'setUp' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'super' op|'(' name|'ConfirmDirTestCase' op|',' name|'self' op|')' op|'.' name|'setUp' op|'(' op|')' newline|'\n' name|'self' op|'.' name|'uid_map_ranges' op|'=' name|'idmapshift' op|'.' name|'get_ranges' op|'(' name|'self' op|'.' name|'uid_maps' op|')' newline|'\n' name|'self' op|'.' name|'gid_map_ranges' op|'=' name|'idmapshift' op|'.' name|'get_ranges' op|'(' name|'self' op|'.' name|'gid_maps' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_path'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_confirm_dir name|'def' name|'test_confirm_dir' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' name|'mock_confirm_path' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|']' op|',' op|'[' string|"'c'" op|',' string|"'d'" op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' name|'mock_confirm_path' op|'.' name|'return_value' op|'=' name|'True' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'confirm_dir' op|'(' string|"'/'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' nl|'\n' name|'files' op|'=' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|',' string|"'d'" op|']' newline|'\n' name|'mock_walk' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|')' op|']' op|')' newline|'\n' name|'mock_join_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' name|'x' op|')' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_join' op|'.' name|'assert_has_calls' op|'(' name|'mock_join_calls' op|')' newline|'\n' nl|'\n' name|'args' op|'=' op|'(' name|'self' op|'.' name|'uid_map_ranges' op|',' name|'self' op|'.' name|'gid_map_ranges' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'confirm_path_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' op|'*' name|'args' op|')' op|']' newline|'\n' name|'confirm_path_calls' op|'+=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|'+' name|'x' op|',' op|'*' name|'args' op|')' nl|'\n' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_confirm_path' op|'.' name|'assert_has_calls' op|'(' name|'confirm_path_calls' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_path'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_confirm_dir_short_circuit_root name|'def' name|'test_confirm_dir_short_circuit_root' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' nl|'\n' name|'mock_confirm_path' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|']' op|',' op|'[' string|"'c'" op|',' string|"'d'" op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' name|'mock_confirm_path' op|'.' name|'return_value' op|'=' name|'False' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'confirm_dir' op|'(' string|"'/'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' nl|'\n' name|'args' op|'=' op|'(' name|'self' op|'.' name|'uid_map_ranges' op|',' name|'self' op|'.' name|'gid_map_ranges' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'confirm_path_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' op|'*' name|'args' op|')' op|']' newline|'\n' name|'mock_confirm_path' op|'.' name|'assert_has_calls' op|'(' name|'confirm_path_calls' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_path'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_confirm_dir_short_circuit_file name|'def' name|'test_confirm_dir_short_circuit_file' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' nl|'\n' name|'mock_confirm_path' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|']' op|',' op|'[' string|"'c'" op|',' string|"'d'" op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' DECL|function|confirm_path_side_effect name|'def' name|'confirm_path_side_effect' op|'(' name|'path' op|',' op|'*' name|'args' op|')' op|':' newline|'\n' indent|' ' name|'if' string|"'a'" name|'in' name|'path' op|':' newline|'\n' indent|' ' name|'return' name|'False' newline|'\n' dedent|'' name|'return' name|'True' newline|'\n' nl|'\n' dedent|'' name|'mock_confirm_path' op|'.' name|'side_effect' op|'=' name|'confirm_path_side_effect' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'confirm_dir' op|'(' string|"'/'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' nl|'\n' name|'mock_walk' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|')' op|']' op|')' newline|'\n' name|'mock_join' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' string|"'a'" op|')' op|']' op|')' newline|'\n' nl|'\n' name|'args' op|'=' op|'(' name|'self' op|'.' name|'uid_map_ranges' op|',' name|'self' op|'.' name|'gid_map_ranges' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'confirm_path_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' op|'*' name|'args' op|')' op|',' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|'+' string|"'a'" op|',' op|'*' name|'args' op|')' op|']' newline|'\n' name|'mock_confirm_path' op|'.' name|'assert_has_calls' op|'(' name|'confirm_path_calls' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_path'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_confirm_dir_short_circuit_dir name|'def' name|'test_confirm_dir_short_circuit_dir' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' nl|'\n' name|'mock_confirm_path' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|']' op|',' op|'[' string|"'c'" op|',' string|"'d'" op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' DECL|function|confirm_path_side_effect name|'def' name|'confirm_path_side_effect' op|'(' name|'path' op|',' op|'*' name|'args' op|')' op|':' newline|'\n' indent|' ' name|'if' string|"'c'" name|'in' name|'path' op|':' newline|'\n' indent|' ' name|'return' name|'False' newline|'\n' dedent|'' name|'return' name|'True' newline|'\n' nl|'\n' dedent|'' name|'mock_confirm_path' op|'.' name|'side_effect' op|'=' name|'confirm_path_side_effect' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'confirm_dir' op|'(' string|"'/'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' nl|'\n' name|'files' op|'=' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|']' newline|'\n' name|'mock_walk' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|')' op|']' op|')' newline|'\n' name|'mock_join_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' name|'x' op|')' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_join' op|'.' name|'assert_has_calls' op|'(' name|'mock_join_calls' op|')' newline|'\n' nl|'\n' name|'args' op|'=' op|'(' name|'self' op|'.' name|'uid_map_ranges' op|',' name|'self' op|'.' name|'gid_map_ranges' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'confirm_path_calls' op|'=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|',' op|'*' name|'args' op|')' op|']' newline|'\n' name|'confirm_path_calls' op|'+=' op|'[' name|'mock' op|'.' name|'call' op|'(' string|"'/'" op|'+' name|'x' op|',' op|'*' name|'args' op|')' nl|'\n' name|'for' name|'x' name|'in' name|'files' op|']' newline|'\n' name|'mock_confirm_path' op|'.' name|'assert_has_calls' op|'(' name|'confirm_path_calls' op|')' newline|'\n' nl|'\n' nl|'\n' DECL|class|IDMapTypeTestCase dedent|'' dedent|'' name|'class' name|'IDMapTypeTestCase' op|'(' name|'test' op|'.' name|'NoDBTestCase' op|')' op|':' newline|'\n' DECL|member|test_id_map_type indent|' ' name|'def' name|'test_id_map_type' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'result' op|'=' name|'idmapshift' op|'.' name|'id_map_type' op|'(' string|'"1:1:1,2:2:2"' op|')' newline|'\n' name|'self' op|'.' name|'assertEqual' op|'(' op|'[' op|'(' number|'1' op|',' number|'1' op|',' number|'1' op|')' op|',' op|'(' number|'2' op|',' number|'2' op|',' number|'2' op|')' op|']' op|',' name|'result' op|')' newline|'\n' nl|'\n' DECL|member|test_id_map_type_not_int dedent|'' name|'def' name|'test_id_map_type_not_int' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'self' op|'.' name|'assertRaises' op|'(' name|'argparse' op|'.' name|'ArgumentTypeError' op|',' name|'idmapshift' op|'.' name|'id_map_type' op|',' nl|'\n' string|'"a:1:1"' op|')' newline|'\n' nl|'\n' DECL|member|test_id_map_type_not_proper_format dedent|'' name|'def' name|'test_id_map_type_not_proper_format' op|'(' name|'self' op|')' op|':' newline|'\n' indent|' ' name|'self' op|'.' name|'assertRaises' op|'(' name|'argparse' op|'.' name|'ArgumentTypeError' op|',' name|'idmapshift' op|'.' name|'id_map_type' op|',' nl|'\n' string|'"1:1"' op|')' newline|'\n' nl|'\n' nl|'\n' DECL|class|MainTestCase dedent|'' dedent|'' name|'class' name|'MainTestCase' op|'(' name|'BaseTestCase' op|')' op|':' newline|'\n' indent|' ' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.shift_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'argparse.ArgumentParser'" op|')' newline|'\n' DECL|member|test_main name|'def' name|'test_main' op|'(' name|'self' op|',' name|'mock_parser_class' op|',' name|'mock_shift_dir' op|')' op|':' newline|'\n' indent|' ' name|'mock_parser' op|'=' name|'mock' op|'.' name|'MagicMock' op|'(' op|')' newline|'\n' name|'mock_parser' op|'.' name|'parse_args' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_parser' op|'.' name|'idempotent' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'confirm' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'path' op|'=' string|"'/test/path'" newline|'\n' name|'mock_parser' op|'.' name|'uid' op|'=' name|'self' op|'.' name|'uid_maps' newline|'\n' name|'mock_parser' op|'.' name|'gid' op|'=' name|'self' op|'.' name|'gid_maps' newline|'\n' name|'mock_parser' op|'.' name|'nobody' op|'=' name|'idmapshift' op|'.' name|'NOBODY_ID' newline|'\n' name|'mock_parser' op|'.' name|'dry_run' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'verbose' op|'=' name|'False' newline|'\n' name|'mock_parser_class' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'main' op|'(' op|')' newline|'\n' nl|'\n' name|'mock_shift_dir_call' op|'=' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' nl|'\n' name|'dry_run' op|'=' name|'False' op|',' name|'verbose' op|'=' name|'False' op|')' newline|'\n' name|'mock_shift_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock_shift_dir_call' op|']' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.shift_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'argparse.ArgumentParser'" op|')' newline|'\n' DECL|member|test_main_confirm_dir_idempotent_unshifted name|'def' name|'test_main_confirm_dir_idempotent_unshifted' op|'(' name|'self' op|',' name|'mock_parser_class' op|',' nl|'\n' name|'mock_confirm_dir' op|',' nl|'\n' name|'mock_shift_dir' op|')' op|':' newline|'\n' indent|' ' name|'mock_parser' op|'=' name|'mock' op|'.' name|'MagicMock' op|'(' op|')' newline|'\n' name|'mock_parser' op|'.' name|'parse_args' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_parser' op|'.' name|'idempotent' op|'=' name|'True' newline|'\n' name|'mock_parser' op|'.' name|'confirm' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'path' op|'=' string|"'/test/path'" newline|'\n' name|'mock_parser' op|'.' name|'uid' op|'=' name|'self' op|'.' name|'uid_maps' newline|'\n' name|'mock_parser' op|'.' name|'gid' op|'=' name|'self' op|'.' name|'gid_maps' newline|'\n' name|'mock_parser' op|'.' name|'nobody' op|'=' name|'idmapshift' op|'.' name|'NOBODY_ID' newline|'\n' name|'mock_parser' op|'.' name|'dry_run' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'verbose' op|'=' name|'False' newline|'\n' name|'mock_parser_class' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_confirm_dir' op|'.' name|'return_value' op|'=' name|'False' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'main' op|'(' op|')' newline|'\n' nl|'\n' name|'mock_confirm_dir_call' op|'=' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'mock_confirm_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock_confirm_dir_call' op|']' op|')' newline|'\n' name|'mock_shift_dir_call' op|'=' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' nl|'\n' name|'dry_run' op|'=' name|'False' op|',' name|'verbose' op|'=' name|'False' op|')' newline|'\n' name|'mock_shift_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock_shift_dir_call' op|']' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.shift_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'argparse.ArgumentParser'" op|')' newline|'\n' DECL|member|test_main_confirm_dir_idempotent_shifted name|'def' name|'test_main_confirm_dir_idempotent_shifted' op|'(' name|'self' op|',' name|'mock_parser_class' op|',' nl|'\n' name|'mock_confirm_dir' op|',' nl|'\n' name|'mock_shift_dir' op|')' op|':' newline|'\n' indent|' ' name|'mock_parser' op|'=' name|'mock' op|'.' name|'MagicMock' op|'(' op|')' newline|'\n' name|'mock_parser' op|'.' name|'parse_args' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_parser' op|'.' name|'idempotent' op|'=' name|'True' newline|'\n' name|'mock_parser' op|'.' name|'confirm' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'path' op|'=' string|"'/test/path'" newline|'\n' name|'mock_parser' op|'.' name|'uid' op|'=' name|'self' op|'.' name|'uid_maps' newline|'\n' name|'mock_parser' op|'.' name|'gid' op|'=' name|'self' op|'.' name|'gid_maps' newline|'\n' name|'mock_parser' op|'.' name|'nobody' op|'=' name|'idmapshift' op|'.' name|'NOBODY_ID' newline|'\n' name|'mock_parser' op|'.' name|'dry_run' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'verbose' op|'=' name|'False' newline|'\n' name|'mock_parser_class' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_confirm_dir' op|'.' name|'return_value' op|'=' name|'True' newline|'\n' nl|'\n' name|'try' op|':' newline|'\n' indent|' ' name|'idmapshift' op|'.' name|'main' op|'(' op|')' newline|'\n' dedent|'' name|'except' name|'SystemExit' name|'as' name|'sys_exit' op|':' newline|'\n' indent|' ' name|'self' op|'.' name|'assertEqual' op|'(' name|'sys_exit' op|'.' name|'code' op|',' number|'0' op|')' newline|'\n' nl|'\n' dedent|'' name|'mock_confirm_dir_call' op|'=' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'mock_confirm_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock_confirm_dir_call' op|']' op|')' newline|'\n' name|'mock_shift_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' op|']' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.shift_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'argparse.ArgumentParser'" op|')' newline|'\n' DECL|member|test_main_confirm_dir_confirm_unshifted name|'def' name|'test_main_confirm_dir_confirm_unshifted' op|'(' name|'self' op|',' name|'mock_parser_class' op|',' nl|'\n' name|'mock_confirm_dir' op|',' nl|'\n' name|'mock_shift_dir' op|')' op|':' newline|'\n' indent|' ' name|'mock_parser' op|'=' name|'mock' op|'.' name|'MagicMock' op|'(' op|')' newline|'\n' name|'mock_parser' op|'.' name|'parse_args' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_parser' op|'.' name|'idempotent' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'confirm' op|'=' name|'True' newline|'\n' name|'mock_parser' op|'.' name|'exit_on_fail' op|'=' name|'True' newline|'\n' name|'mock_parser' op|'.' name|'path' op|'=' string|"'/test/path'" newline|'\n' name|'mock_parser' op|'.' name|'uid' op|'=' name|'self' op|'.' name|'uid_maps' newline|'\n' name|'mock_parser' op|'.' name|'gid' op|'=' name|'self' op|'.' name|'gid_maps' newline|'\n' name|'mock_parser' op|'.' name|'nobody' op|'=' name|'idmapshift' op|'.' name|'NOBODY_ID' newline|'\n' name|'mock_parser' op|'.' name|'dry_run' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'verbose' op|'=' name|'False' newline|'\n' name|'mock_parser_class' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_confirm_dir' op|'.' name|'return_value' op|'=' name|'False' newline|'\n' nl|'\n' name|'try' op|':' newline|'\n' indent|' ' name|'idmapshift' op|'.' name|'main' op|'(' op|')' newline|'\n' dedent|'' name|'except' name|'SystemExit' name|'as' name|'sys_exit' op|':' newline|'\n' indent|' ' name|'self' op|'.' name|'assertEqual' op|'(' name|'sys_exit' op|'.' name|'code' op|',' number|'1' op|')' newline|'\n' nl|'\n' dedent|'' name|'mock_confirm_dir_call' op|'=' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'mock_confirm_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock_confirm_dir_call' op|']' op|')' newline|'\n' name|'mock_shift_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' op|']' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.shift_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'nova.cmd.idmapshift.confirm_dir'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'argparse.ArgumentParser'" op|')' newline|'\n' DECL|member|test_main_confirm_dir_confirm_shifted name|'def' name|'test_main_confirm_dir_confirm_shifted' op|'(' name|'self' op|',' name|'mock_parser_class' op|',' nl|'\n' name|'mock_confirm_dir' op|',' nl|'\n' name|'mock_shift_dir' op|')' op|':' newline|'\n' indent|' ' name|'mock_parser' op|'=' name|'mock' op|'.' name|'MagicMock' op|'(' op|')' newline|'\n' name|'mock_parser' op|'.' name|'parse_args' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_parser' op|'.' name|'idempotent' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'confirm' op|'=' name|'True' newline|'\n' name|'mock_parser' op|'.' name|'exit_on_fail' op|'=' name|'True' newline|'\n' name|'mock_parser' op|'.' name|'path' op|'=' string|"'/test/path'" newline|'\n' name|'mock_parser' op|'.' name|'uid' op|'=' name|'self' op|'.' name|'uid_maps' newline|'\n' name|'mock_parser' op|'.' name|'gid' op|'=' name|'self' op|'.' name|'gid_maps' newline|'\n' name|'mock_parser' op|'.' name|'nobody' op|'=' name|'idmapshift' op|'.' name|'NOBODY_ID' newline|'\n' name|'mock_parser' op|'.' name|'dry_run' op|'=' name|'False' newline|'\n' name|'mock_parser' op|'.' name|'verbose' op|'=' name|'False' newline|'\n' name|'mock_parser_class' op|'.' name|'return_value' op|'=' name|'mock_parser' newline|'\n' name|'mock_confirm_dir' op|'.' name|'return_value' op|'=' name|'True' newline|'\n' nl|'\n' name|'try' op|':' newline|'\n' indent|' ' name|'idmapshift' op|'.' name|'main' op|'(' op|')' newline|'\n' dedent|'' name|'except' name|'SystemExit' name|'as' name|'sys_exit' op|':' newline|'\n' indent|' ' name|'self' op|'.' name|'assertEqual' op|'(' name|'sys_exit' op|'.' name|'code' op|',' number|'0' op|')' newline|'\n' nl|'\n' dedent|'' name|'mock_confirm_dir_call' op|'=' name|'mock' op|'.' name|'call' op|'(' string|"'/test/path'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' name|'mock_confirm_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' name|'mock_confirm_dir_call' op|']' op|')' newline|'\n' name|'mock_shift_dir' op|'.' name|'assert_has_calls' op|'(' op|'[' op|']' op|')' newline|'\n' nl|'\n' nl|'\n' DECL|class|IntegrationTestCase dedent|'' dedent|'' name|'class' name|'IntegrationTestCase' op|'(' name|'BaseTestCase' op|')' op|':' newline|'\n' indent|' ' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lchown'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_integrated_shift_dir name|'def' name|'test_integrated_shift_dir' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' name|'mock_lstat' op|',' nl|'\n' name|'mock_lchown' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/tmp/test'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|']' op|',' op|'[' string|"'d'" op|']' op|')' op|',' nl|'\n' op|'(' string|"'/tmp/test/d'" op|',' op|'[' string|"'1'" op|',' string|"'2'" op|']' op|',' op|'[' op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' DECL|function|lstat name|'def' name|'lstat' op|'(' name|'path' op|')' op|':' newline|'\n' indent|' ' name|'stats' op|'=' op|'{' nl|'\n' string|"'t'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' op|',' nl|'\n' string|"'a'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' op|',' nl|'\n' string|"'b'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'2' op|')' op|',' nl|'\n' string|"'c'" op|':' name|'FakeStat' op|'(' number|'30000' op|',' number|'30000' op|')' op|',' nl|'\n' string|"'d'" op|':' name|'FakeStat' op|'(' number|'100' op|',' number|'100' op|')' op|',' nl|'\n' string|"'1'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'100' op|')' op|',' nl|'\n' string|"'2'" op|':' name|'FakeStat' op|'(' number|'100' op|',' number|'100' op|')' op|',' nl|'\n' op|'}' newline|'\n' name|'return' name|'stats' op|'[' name|'path' op|'[' op|'-' number|'1' op|']' op|']' newline|'\n' nl|'\n' dedent|'' name|'mock_lstat' op|'.' name|'side_effect' op|'=' name|'lstat' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'shift_dir' op|'(' string|"'/tmp/test'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'verbose' op|'=' name|'True' op|')' newline|'\n' nl|'\n' name|'lchown_calls' op|'=' op|'[' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/tmp/test'" op|',' number|'10000' op|',' number|'10000' op|')' op|',' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/tmp/test/a'" op|',' number|'10000' op|',' number|'10000' op|')' op|',' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/tmp/test/b'" op|',' number|'10000' op|',' number|'10002' op|')' op|',' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/tmp/test/c'" op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' op|',' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/tmp/test/d'" op|',' number|'20090' op|',' number|'20090' op|')' op|',' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/tmp/test/d/1'" op|',' number|'10000' op|',' number|'20090' op|')' op|',' nl|'\n' name|'mock' op|'.' name|'call' op|'(' string|"'/tmp/test/d/2'" op|',' number|'20090' op|',' number|'20090' op|')' op|',' nl|'\n' op|']' newline|'\n' name|'mock_lchown' op|'.' name|'assert_has_calls' op|'(' name|'lchown_calls' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lchown'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_integrated_shift_dir_dry_run name|'def' name|'test_integrated_shift_dir_dry_run' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' nl|'\n' name|'mock_lstat' op|',' name|'mock_lchown' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/tmp/test'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|']' op|',' op|'[' string|"'d'" op|']' op|')' op|',' nl|'\n' op|'(' string|"'/tmp/test/d'" op|',' op|'[' string|"'1'" op|',' string|"'2'" op|']' op|',' op|'[' op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' DECL|function|lstat name|'def' name|'lstat' op|'(' name|'path' op|')' op|':' newline|'\n' indent|' ' name|'stats' op|'=' op|'{' nl|'\n' string|"'t'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' op|',' nl|'\n' string|"'a'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' op|',' nl|'\n' string|"'b'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'2' op|')' op|',' nl|'\n' string|"'c'" op|':' name|'FakeStat' op|'(' number|'30000' op|',' number|'30000' op|')' op|',' nl|'\n' string|"'d'" op|':' name|'FakeStat' op|'(' number|'100' op|',' number|'100' op|')' op|',' nl|'\n' string|"'1'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'100' op|')' op|',' nl|'\n' string|"'2'" op|':' name|'FakeStat' op|'(' number|'100' op|',' number|'100' op|')' op|',' nl|'\n' op|'}' newline|'\n' name|'return' name|'stats' op|'[' name|'path' op|'[' op|'-' number|'1' op|']' op|']' newline|'\n' nl|'\n' dedent|'' name|'mock_lstat' op|'.' name|'side_effect' op|'=' name|'lstat' newline|'\n' nl|'\n' name|'idmapshift' op|'.' name|'shift_dir' op|'(' string|"'/tmp/test'" op|',' name|'self' op|'.' name|'uid_maps' op|',' name|'self' op|'.' name|'gid_maps' op|',' nl|'\n' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'dry_run' op|'=' name|'True' op|',' name|'verbose' op|'=' name|'True' op|')' newline|'\n' nl|'\n' name|'self' op|'.' name|'assertEqual' op|'(' number|'0' op|',' name|'len' op|'(' name|'mock_lchown' op|'.' name|'mock_calls' op|')' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_integrated_confirm_dir_shifted name|'def' name|'test_integrated_confirm_dir_shifted' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' nl|'\n' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/tmp/test'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|']' op|',' op|'[' string|"'d'" op|']' op|')' op|',' nl|'\n' op|'(' string|"'/tmp/test/d'" op|',' op|'[' string|"'1'" op|',' string|"'2'" op|']' op|',' op|'[' op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' DECL|function|lstat name|'def' name|'lstat' op|'(' name|'path' op|')' op|':' newline|'\n' indent|' ' name|'stats' op|'=' op|'{' nl|'\n' string|"'t'" op|':' name|'FakeStat' op|'(' number|'10000' op|',' number|'10000' op|')' op|',' nl|'\n' string|"'a'" op|':' name|'FakeStat' op|'(' number|'10000' op|',' number|'10000' op|')' op|',' nl|'\n' string|"'b'" op|':' name|'FakeStat' op|'(' number|'10000' op|',' number|'10002' op|')' op|',' nl|'\n' string|"'c'" op|':' name|'FakeStat' op|'(' name|'idmapshift' op|'.' name|'NOBODY_ID' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' op|',' nl|'\n' string|"'d'" op|':' name|'FakeStat' op|'(' number|'20090' op|',' number|'20090' op|')' op|',' nl|'\n' string|"'1'" op|':' name|'FakeStat' op|'(' number|'10000' op|',' number|'20090' op|')' op|',' nl|'\n' string|"'2'" op|':' name|'FakeStat' op|'(' number|'20090' op|',' number|'20090' op|')' op|',' nl|'\n' op|'}' newline|'\n' name|'return' name|'stats' op|'[' name|'path' op|'[' op|'-' number|'1' op|']' op|']' newline|'\n' nl|'\n' dedent|'' name|'mock_lstat' op|'.' name|'side_effect' op|'=' name|'lstat' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_dir' op|'(' string|"'/tmp/test'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' nl|'\n' name|'self' op|'.' name|'assertTrue' op|'(' name|'result' op|')' newline|'\n' nl|'\n' dedent|'' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.lstat'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.path.join'" op|')' newline|'\n' op|'@' name|'mock' op|'.' name|'patch' op|'(' string|"'os.walk'" op|')' newline|'\n' DECL|member|test_integrated_confirm_dir_unshifted name|'def' name|'test_integrated_confirm_dir_unshifted' op|'(' name|'self' op|',' name|'mock_walk' op|',' name|'mock_join' op|',' nl|'\n' name|'mock_lstat' op|')' op|':' newline|'\n' indent|' ' name|'mock_walk' op|'.' name|'return_value' op|'=' op|'[' op|'(' string|"'/tmp/test'" op|',' op|'[' string|"'a'" op|',' string|"'b'" op|',' string|"'c'" op|']' op|',' op|'[' string|"'d'" op|']' op|')' op|',' nl|'\n' op|'(' string|"'/tmp/test/d'" op|',' op|'[' string|"'1'" op|',' string|"'2'" op|']' op|',' op|'[' op|']' op|')' op|']' newline|'\n' name|'mock_join' op|'.' name|'side_effect' op|'=' name|'join_side_effect' newline|'\n' nl|'\n' DECL|function|lstat name|'def' name|'lstat' op|'(' name|'path' op|')' op|':' newline|'\n' indent|' ' name|'stats' op|'=' op|'{' nl|'\n' string|"'t'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' op|',' nl|'\n' string|"'a'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'0' op|')' op|',' nl|'\n' string|"'b'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'2' op|')' op|',' nl|'\n' string|"'c'" op|':' name|'FakeStat' op|'(' number|'30000' op|',' number|'30000' op|')' op|',' nl|'\n' string|"'d'" op|':' name|'FakeStat' op|'(' number|'100' op|',' number|'100' op|')' op|',' nl|'\n' string|"'1'" op|':' name|'FakeStat' op|'(' number|'0' op|',' number|'100' op|')' op|',' nl|'\n' string|"'2'" op|':' name|'FakeStat' op|'(' number|'100' op|',' number|'100' op|')' op|',' nl|'\n' op|'}' newline|'\n' name|'return' name|'stats' op|'[' name|'path' op|'[' op|'-' number|'1' op|']' op|']' newline|'\n' nl|'\n' dedent|'' name|'mock_lstat' op|'.' name|'side_effect' op|'=' name|'lstat' newline|'\n' nl|'\n' name|'result' op|'=' name|'idmapshift' op|'.' name|'confirm_dir' op|'(' string|"'/tmp/test'" op|',' name|'self' op|'.' name|'uid_maps' op|',' nl|'\n' name|'self' op|'.' name|'gid_maps' op|',' name|'idmapshift' op|'.' name|'NOBODY_ID' op|')' newline|'\n' nl|'\n' name|'self' op|'.' name|'assertFalse' op|'(' name|'result' op|')' newline|'\n' dedent|'' dedent|'' endmarker|'' end_unit
11.781194
84
0.588728
9,008
59,012
3.73357
0.024534
0.179829
0.092174
0.05138
0.962387
0.950107
0.93747
0.917876
0.894178
0.875178
0
0.010734
0.095438
59,012
5,008
85
11.783546
0.619314
0
0
0.97484
0
0
0.339067
0.031197
0
0
0
0
0.012979
0
null
null
0
0.000799
null
null
0.000998
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
8
c0993f066edce1617598132d95ab381bcdf8258b
39,502
py
Python
alibabacloud-gateway-fc/python/alibabacloud_gateway_fc/client.py
aliyun/alibabacloud-gateway
6fb50cd7a0731164a02fa8f1a07fd09ec66d508d
[ "Apache-2.0" ]
2
2021-11-30T04:14:36.000Z
2021-11-30T04:38:13.000Z
alibabacloud-gateway-fc/python/alibabacloud_gateway_fc/client.py
aliyun/alibabacloud-gateway
6fb50cd7a0731164a02fa8f1a07fd09ec66d508d
[ "Apache-2.0" ]
3
2021-12-16T03:16:38.000Z
2022-03-11T06:34:59.000Z
alibabacloud-gateway-fc/python/alibabacloud_gateway_fc/client.py
aliyun/alibabacloud-gateway
6fb50cd7a0731164a02fa8f1a07fd09ec66d508d
[ "Apache-2.0" ]
2
2021-12-16T01:47:40.000Z
2021-12-16T07:21:38.000Z
# -*- coding: utf-8 -*- # This file is auto-generated, don't edit it. Thanks. from Tea.exceptions import TeaException from alibabacloud_darabonba_encode_util.encoder import Encoder from alibabacloud_darabonba_signature_util.signer import Signer from typing import Dict, Any, List from Tea.core import TeaCore from alibabacloud_gateway_spi.client import Client as SPIClient from alibabacloud_gateway_spi import models as spi_models from alibabacloud_darabonba_string.client import Client as StringClient from alibabacloud_tea_util.client import Client as UtilClient from alibabacloud_endpoint_util.client import Client as EndpointUtilClient from alibabacloud_openapi_util.client import Client as OpenApiUtilClient from alibabacloud_darabonba_array.client import Client as ArrayClient from alibabacloud_darabonba_map.client import Client as MapClient from alibabacloud_gateway_fc import models as gateway_fc_models from alibabacloud_credentials.client import Client as CredentialClient class Client(SPIClient): def __init__(self): super().__init__() def modify_configuration( self, context: spi_models.InterceptorContext, attribute_map: spi_models.AttributeMap, ) -> None: request = context.request config = context.configuration config.endpoint = self.get_endpoint(request.product_id, config.region_id, config.endpoint_rule, config.network, config.suffix, config.endpoint_map, config.endpoint) async def modify_configuration_async( self, context: spi_models.InterceptorContext, attribute_map: spi_models.AttributeMap, ) -> None: request = context.request config = context.configuration config.endpoint = self.get_endpoint(request.product_id, config.region_id, config.endpoint_rule, config.network, config.suffix, config.endpoint_map, config.endpoint) def modify_request( self, context: spi_models.InterceptorContext, attribute_map: spi_models.AttributeMap, ) -> None: config = context.configuration if not StringClient.has_suffix(config.endpoint, 'aliyuncs.com'): self.sign_request_for_fc(context) else: self.sign_request_for_pop(context) async def modify_request_async( self, context: spi_models.InterceptorContext, attribute_map: spi_models.AttributeMap, ) -> None: config = context.configuration if not StringClient.has_suffix(config.endpoint, 'aliyuncs.com'): await self.sign_request_for_fc_async(context) else: await self.sign_request_for_pop_async(context) def modify_response( self, context: spi_models.InterceptorContext, attribute_map: spi_models.AttributeMap, ) -> None: request = context.request config = context.configuration response = context.response if UtilClient.is_4xx(response.status_code) or UtilClient.is_5xx(response.status_code): if StringClient.has_prefix(config.endpoint, 'fc.') and StringClient.has_suffix(config.endpoint, '.aliyuncs.com'): pop_res = UtilClient.read_as_json(response.body) pop_err = UtilClient.assert_as_map(pop_res) raise TeaException({ 'code': f"{self.default_any(pop_err.get('Code'), pop_err.get('code'))}", 'message': f"code: {response.status_code}, {self.default_any(pop_err.get('Message'), pop_err.get('message'))} request id: {self.default_any(pop_err.get('RequestID'), pop_err.get('RequestId'))}", 'data': pop_err }) else: _headers = UtilClient.assert_as_map(response.headers) fc_res = UtilClient.read_as_json(response.body) fc_err = UtilClient.assert_as_map(fc_res) raise TeaException({ 'code': fc_err.get('ErrorCode'), 'message': f"code: {response.status_code}, {fc_err.get('ErrorMessage')} request id: {_headers.get('x-fc-request-id')}", 'data': fc_err }) if UtilClient.equal_string(request.body_type, 'binary'): response.deserialized_body = response.body elif UtilClient.equal_string(request.body_type, 'byte'): byt = UtilClient.read_as_bytes(response.body) response.deserialized_body = byt elif UtilClient.equal_string(request.body_type, 'string'): str = UtilClient.read_as_string(response.body) response.deserialized_body = str elif UtilClient.equal_string(request.body_type, 'json'): obj = UtilClient.read_as_json(response.body) res = UtilClient.assert_as_map(obj) response.deserialized_body = res elif UtilClient.equal_string(request.body_type, 'array'): arr = UtilClient.read_as_json(response.body) response.deserialized_body = arr else: response.deserialized_body = UtilClient.read_as_string(response.body) async def modify_response_async( self, context: spi_models.InterceptorContext, attribute_map: spi_models.AttributeMap, ) -> None: request = context.request config = context.configuration response = context.response if UtilClient.is_4xx(response.status_code) or UtilClient.is_5xx(response.status_code): if StringClient.has_prefix(config.endpoint, 'fc.') and StringClient.has_suffix(config.endpoint, '.aliyuncs.com'): pop_res = await UtilClient.read_as_json_async(response.body) pop_err = UtilClient.assert_as_map(pop_res) raise TeaException({ 'code': f"{self.default_any(pop_err.get('Code'), pop_err.get('code'))}", 'message': f"code: {response.status_code}, {self.default_any(pop_err.get('Message'), pop_err.get('message'))} request id: {self.default_any(pop_err.get('RequestID'), pop_err.get('RequestId'))}", 'data': pop_err }) else: _headers = UtilClient.assert_as_map(response.headers) fc_res = await UtilClient.read_as_json_async(response.body) fc_err = UtilClient.assert_as_map(fc_res) raise TeaException({ 'code': fc_err.get('ErrorCode'), 'message': f"code: {response.status_code}, {fc_err.get('ErrorMessage')} request id: {_headers.get('x-fc-request-id')}", 'data': fc_err }) if UtilClient.equal_string(request.body_type, 'binary'): response.deserialized_body = response.body elif UtilClient.equal_string(request.body_type, 'byte'): byt = await UtilClient.read_as_bytes_async(response.body) response.deserialized_body = byt elif UtilClient.equal_string(request.body_type, 'string'): str = await UtilClient.read_as_string_async(response.body) response.deserialized_body = str elif UtilClient.equal_string(request.body_type, 'json'): obj = await UtilClient.read_as_json_async(response.body) res = UtilClient.assert_as_map(obj) response.deserialized_body = res elif UtilClient.equal_string(request.body_type, 'array'): arr = await UtilClient.read_as_json_async(response.body) response.deserialized_body = arr else: response.deserialized_body = await UtilClient.read_as_string_async(response.body) def get_endpoint( self, product_id: str, region_id: str, endpoint_rule: str, network: str, suffix: str, endpoint_map: Dict[str, str], endpoint: str, ) -> str: if not UtilClient.empty(endpoint): return endpoint if not UtilClient.is_unset(endpoint_map) and not UtilClient.empty(endpoint_map.get(region_id)): return endpoint_map.get(region_id) return EndpointUtilClient.get_endpoint_rules(product_id, region_id, endpoint_rule, network, suffix) def default_any( self, input_value: Any, default_value: Any, ) -> Any: if UtilClient.is_unset(input_value): return default_value return input_value def sign_request_for_fc( self, context: spi_models.InterceptorContext, ) -> None: request = context.request config = context.configuration request.headers = TeaCore.merge({ 'host': config.endpoint, 'date': UtilClient.get_date_utcstring(), 'accept': 'application/json', 'user-agent': request.user_agent }, request.headers) request.headers['content-type'] = 'application/json' if not UtilClient.is_unset(request.stream): tmp = UtilClient.read_as_bytes(request.stream) request.stream = tmp request.headers['content-type'] = 'application/octet-stream' request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign_for_bytes(tmp)) else: if not UtilClient.is_unset(request.body): if UtilClient.equal_string(request.req_body_type, 'json'): json_obj = UtilClient.to_jsonstring(request.body) request.stream = json_obj request.headers['content-type'] = 'application/json' request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(json_obj)) else: m = UtilClient.assert_as_map(request.body) form_obj = OpenApiUtilClient.to_form(m) request.stream = form_obj request.headers['content-type'] = 'application/x-www-form-urlencoded' request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(form_obj)) credential = request.credential access_key_id = credential.get_access_key_id() access_key_secret = credential.get_access_key_secret() security_token = credential.get_security_token() if not UtilClient.empty(security_token): request.headers['x-fc-security-token'] = security_token request.headers['Authorization'] = self.get_authorization_for_fc(request.pathname, request.method, request.query, request.headers, access_key_id, access_key_secret) async def sign_request_for_fc_async( self, context: spi_models.InterceptorContext, ) -> None: request = context.request config = context.configuration request.headers = TeaCore.merge({ 'host': config.endpoint, 'date': UtilClient.get_date_utcstring(), 'accept': 'application/json', 'user-agent': request.user_agent }, request.headers) request.headers['content-type'] = 'application/json' if not UtilClient.is_unset(request.stream): tmp = await UtilClient.read_as_bytes_async(request.stream) request.stream = tmp request.headers['content-type'] = 'application/octet-stream' request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign_for_bytes(tmp)) else: if not UtilClient.is_unset(request.body): if UtilClient.equal_string(request.req_body_type, 'json'): json_obj = UtilClient.to_jsonstring(request.body) request.stream = json_obj request.headers['content-type'] = 'application/json' request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(json_obj)) else: m = UtilClient.assert_as_map(request.body) form_obj = OpenApiUtilClient.to_form(m) request.stream = form_obj request.headers['content-type'] = 'application/x-www-form-urlencoded' request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(form_obj)) credential = request.credential access_key_id = await credential.get_access_key_id_async() access_key_secret = await credential.get_access_key_secret_async() security_token = await credential.get_security_token_async() if not UtilClient.empty(security_token): request.headers['x-fc-security-token'] = security_token request.headers['Authorization'] = await self.get_authorization_for_fc_async(request.pathname, request.method, request.query, request.headers, access_key_id, access_key_secret) def sign_request_for_pop( self, context: spi_models.InterceptorContext, ) -> None: request = context.request config = context.configuration request.headers = TeaCore.merge({ 'host': config.endpoint, 'x-acs-version': request.version, 'x-acs-action': request.action, 'user-agent': request.user_agent, 'x-acs-date': OpenApiUtilClient.get_timestamp(), 'x-acs-signature-nonce': UtilClient.get_nonce(), 'accept': 'application/json' }, request.headers) signature_algorithm = 'ACS3-HMAC-SHA256' if not UtilClient.is_unset(request.signature_algorithm): signature_algorithm = request.signature_algorithm hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(''), signature_algorithm)) if not UtilClient.is_unset(request.stream): tmp = UtilClient.read_as_bytes(request.stream) hashed_request_payload = Encoder.hex_encode(Encoder.hash(tmp, signature_algorithm)) request.stream = tmp request.headers['content-type'] = 'application/octet-stream' else: if not UtilClient.is_unset(request.body): if UtilClient.equal_string(request.req_body_type, 'json'): json_obj = UtilClient.to_jsonstring(request.body) hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(json_obj), signature_algorithm)) request.stream = json_obj request.headers['content-type'] = 'application/json; charset=utf-8' else: m = UtilClient.assert_as_map(request.body) form_obj = OpenApiUtilClient.to_form(m) hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(form_obj), signature_algorithm)) request.stream = form_obj request.headers['content-type'] = 'application/x-www-form-urlencoded' request.headers['x-acs-content-sha256'] = hashed_request_payload if not UtilClient.equal_string(request.auth_type, 'Anonymous'): credential = request.credential access_key_id = credential.get_access_key_id() access_key_secret = credential.get_access_key_secret() security_token = credential.get_security_token() if not UtilClient.empty(security_token): request.headers['x-acs-accesskey-id'] = access_key_id request.headers['x-acs-security-token'] = security_token request.headers['Authorization'] = self.get_authorization_for_pop(request.pathname, request.method, request.query, request.headers, signature_algorithm, hashed_request_payload, access_key_id, access_key_secret) async def sign_request_for_pop_async( self, context: spi_models.InterceptorContext, ) -> None: request = context.request config = context.configuration request.headers = TeaCore.merge({ 'host': config.endpoint, 'x-acs-version': request.version, 'x-acs-action': request.action, 'user-agent': request.user_agent, 'x-acs-date': OpenApiUtilClient.get_timestamp(), 'x-acs-signature-nonce': UtilClient.get_nonce(), 'accept': 'application/json' }, request.headers) signature_algorithm = 'ACS3-HMAC-SHA256' if not UtilClient.is_unset(request.signature_algorithm): signature_algorithm = request.signature_algorithm hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(''), signature_algorithm)) if not UtilClient.is_unset(request.stream): tmp = await UtilClient.read_as_bytes_async(request.stream) hashed_request_payload = Encoder.hex_encode(Encoder.hash(tmp, signature_algorithm)) request.stream = tmp request.headers['content-type'] = 'application/octet-stream' else: if not UtilClient.is_unset(request.body): if UtilClient.equal_string(request.req_body_type, 'json'): json_obj = UtilClient.to_jsonstring(request.body) hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(json_obj), signature_algorithm)) request.stream = json_obj request.headers['content-type'] = 'application/json; charset=utf-8' else: m = UtilClient.assert_as_map(request.body) form_obj = OpenApiUtilClient.to_form(m) hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(form_obj), signature_algorithm)) request.stream = form_obj request.headers['content-type'] = 'application/x-www-form-urlencoded' request.headers['x-acs-content-sha256'] = hashed_request_payload if not UtilClient.equal_string(request.auth_type, 'Anonymous'): credential = request.credential access_key_id = await credential.get_access_key_id_async() access_key_secret = await credential.get_access_key_secret_async() security_token = await credential.get_security_token_async() if not UtilClient.empty(security_token): request.headers['x-acs-accesskey-id'] = access_key_id request.headers['x-acs-security-token'] = security_token request.headers['Authorization'] = await self.get_authorization_for_pop_async(request.pathname, request.method, request.query, request.headers, signature_algorithm, hashed_request_payload, access_key_id, access_key_secret) def get_authorization_for_fc( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], ak: str, secret: str, ) -> str: sign = self.get_signature_for_fc(pathname, method, query, headers, secret) return f'FC {ak}:{sign}' async def get_authorization_for_fc_async( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], ak: str, secret: str, ) -> str: sign = await self.get_signature_for_fc_async(pathname, method, query, headers, secret) return f'FC {ak}:{sign}' def get_signature_for_fc( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], secret: str, ) -> str: resource = pathname content_md_5 = headers.get('content-md5') if UtilClient.is_unset(content_md_5): content_md_5 = '' content_type = headers.get('content-type') if UtilClient.is_unset(content_type): content_type = '' string_to_sign = '' canonicalized_resource = self.build_canonicalized_resource_for_fc(resource, query) canonicalized_headers = self.build_canonicalized_headers_for_fc(headers) string_to_sign = f"{method}\n{content_md_5}\n{content_type}\n{headers.get('date')}\n{canonicalized_headers}{canonicalized_resource}" return Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, secret)) async def get_signature_for_fc_async( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], secret: str, ) -> str: resource = pathname content_md_5 = headers.get('content-md5') if UtilClient.is_unset(content_md_5): content_md_5 = '' content_type = headers.get('content-type') if UtilClient.is_unset(content_type): content_type = '' string_to_sign = '' canonicalized_resource = await self.build_canonicalized_resource_for_fc_async(resource, query) canonicalized_headers = await self.build_canonicalized_headers_for_fc_async(headers) string_to_sign = f"{method}\n{content_md_5}\n{content_type}\n{headers.get('date')}\n{canonicalized_headers}{canonicalized_resource}" return Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, secret)) def build_canonicalized_resource_for_fc( self, pathname: str, query: Dict[str, str], ) -> str: paths = StringClient.split(pathname, f'?', 2) canonicalized_resource = paths[0] resources = {} if UtilClient.equal_number(ArrayClient.size(paths), 2): resources = StringClient.split(paths[1], '&', 0) sub_resources = {} tmp = '' separator = '' if not UtilClient.is_unset(query): query_list = MapClient.key_set(query) for param_name in query_list: tmp = f'{tmp}{separator}{param_name}' if not UtilClient.is_unset(query.get(param_name)): tmp = f'{tmp}={query.get(param_name)}' separator = ';' sub_resources = StringClient.split(tmp, ';', 0) result = ArrayClient.concat(sub_resources, resources) sorted_params = ArrayClient.asc_sort(result) if UtilClient.equal_number(ArrayClient.size(sorted_params), 0): return f'{canonicalized_resource}\n' sub_res = ArrayClient.join(sorted_params, '\n') return f'{canonicalized_resource}\n{sub_res}' async def build_canonicalized_resource_for_fc_async( self, pathname: str, query: Dict[str, str], ) -> str: paths = StringClient.split(pathname, f'?', 2) canonicalized_resource = paths[0] resources = {} if UtilClient.equal_number(ArrayClient.size(paths), 2): resources = StringClient.split(paths[1], '&', 0) sub_resources = {} tmp = '' separator = '' if not UtilClient.is_unset(query): query_list = MapClient.key_set(query) for param_name in query_list: tmp = f'{tmp}{separator}{param_name}' if not UtilClient.is_unset(query.get(param_name)): tmp = f'{tmp}={query.get(param_name)}' separator = ';' sub_resources = StringClient.split(tmp, ';', 0) result = ArrayClient.concat(sub_resources, resources) sorted_params = ArrayClient.asc_sort(result) if UtilClient.equal_number(ArrayClient.size(sorted_params), 0): return f'{canonicalized_resource}\n' sub_res = ArrayClient.join(sorted_params, '\n') return f'{canonicalized_resource}\n{sub_res}' def build_canonicalized_headers_for_fc( self, headers: Dict[str, str], ) -> str: canonicalized_headers = '' keys = MapClient.key_set(headers) sorted_headers = ArrayClient.asc_sort(keys) for header in sorted_headers: if StringClient.contains(StringClient.to_lower(header), 'x-fc-'): canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{headers.get(header)}\n' return canonicalized_headers async def build_canonicalized_headers_for_fc_async( self, headers: Dict[str, str], ) -> str: canonicalized_headers = '' keys = MapClient.key_set(headers) sorted_headers = ArrayClient.asc_sort(keys) for header in sorted_headers: if StringClient.contains(StringClient.to_lower(header), 'x-fc-'): canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{headers.get(header)}\n' return canonicalized_headers def get_authorization_for_pop( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], signature_algorithm: str, payload: str, ak: str, secret: str, ) -> str: signature = self.get_signature_for_pop(pathname, method, query, headers, signature_algorithm, payload, secret) signed_headers = self.get_signed_headers(headers) return f"{signature_algorithm} Credential={ak},SignedHeaders={ArrayClient.join(signed_headers, ';')},Signature={signature}" async def get_authorization_for_pop_async( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], signature_algorithm: str, payload: str, ak: str, secret: str, ) -> str: signature = await self.get_signature_for_pop_async(pathname, method, query, headers, signature_algorithm, payload, secret) signed_headers = await self.get_signed_headers_async(headers) return f"{signature_algorithm} Credential={ak},SignedHeaders={ArrayClient.join(signed_headers, ';')},Signature={signature}" def get_signature_for_pop( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], signature_algorithm: str, payload: str, secret: str, ) -> str: canonical_uri = '/' if not UtilClient.empty(pathname): canonical_uri = pathname string_to_sign = '' canonicalized_resource = self.build_canonicalized_resource_for_pop(query) canonicalized_headers = self.build_canonicalized_headers_for_pop(headers) signed_headers = self.get_signed_headers(headers) string_to_sign = f"{method}\n{canonical_uri}\n{canonicalized_resource}\n{canonicalized_headers}\n{ArrayClient.join(signed_headers, ';')}\n{payload}" hex = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(string_to_sign), signature_algorithm)) string_to_sign = f'{signature_algorithm}\n{hex}' signature = UtilClient.to_bytes('') if StringClient.equals(signature_algorithm, 'ACS3-HMAC-SHA256'): signature = Signer.hmac_sha256sign(string_to_sign, secret) elif StringClient.equals(signature_algorithm, 'ACS3-HMAC-SM3'): signature = Signer.hmac_sm3sign(string_to_sign, secret) elif StringClient.equals(signature_algorithm, 'ACS3-RSA-SHA256'): signature = Signer.sha256with_rsasign(string_to_sign, secret) return Encoder.hex_encode(signature) async def get_signature_for_pop_async( self, pathname: str, method: str, query: Dict[str, str], headers: Dict[str, str], signature_algorithm: str, payload: str, secret: str, ) -> str: canonical_uri = '/' if not UtilClient.empty(pathname): canonical_uri = pathname string_to_sign = '' canonicalized_resource = await self.build_canonicalized_resource_for_pop_async(query) canonicalized_headers = await self.build_canonicalized_headers_for_pop_async(headers) signed_headers = await self.get_signed_headers_async(headers) string_to_sign = f"{method}\n{canonical_uri}\n{canonicalized_resource}\n{canonicalized_headers}\n{ArrayClient.join(signed_headers, ';')}\n{payload}" hex = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(string_to_sign), signature_algorithm)) string_to_sign = f'{signature_algorithm}\n{hex}' signature = UtilClient.to_bytes('') if StringClient.equals(signature_algorithm, 'ACS3-HMAC-SHA256'): signature = Signer.hmac_sha256sign(string_to_sign, secret) elif StringClient.equals(signature_algorithm, 'ACS3-HMAC-SM3'): signature = Signer.hmac_sm3sign(string_to_sign, secret) elif StringClient.equals(signature_algorithm, 'ACS3-RSA-SHA256'): signature = Signer.sha256with_rsasign(string_to_sign, secret) return Encoder.hex_encode(signature) def build_canonicalized_resource_for_pop( self, query: Dict[str, str], ) -> str: canonicalized_resource = '' if not UtilClient.is_unset(query): query_array = MapClient.key_set(query) sorted_query_array = ArrayClient.asc_sort(query_array) separator = '' for key in sorted_query_array: canonicalized_resource = f'{canonicalized_resource}{separator}{Encoder.percent_encode(key)}' if not UtilClient.empty(query.get(key)): canonicalized_resource = f'{canonicalized_resource}={Encoder.percent_encode(query.get(key))}' separator = '&' return canonicalized_resource async def build_canonicalized_resource_for_pop_async( self, query: Dict[str, str], ) -> str: canonicalized_resource = '' if not UtilClient.is_unset(query): query_array = MapClient.key_set(query) sorted_query_array = ArrayClient.asc_sort(query_array) separator = '' for key in sorted_query_array: canonicalized_resource = f'{canonicalized_resource}{separator}{Encoder.percent_encode(key)}' if not UtilClient.empty(query.get(key)): canonicalized_resource = f'{canonicalized_resource}={Encoder.percent_encode(query.get(key))}' separator = '&' return canonicalized_resource def build_canonicalized_headers_for_pop( self, headers: Dict[str, str], ) -> str: canonicalized_headers = '' sorted_headers = self.get_signed_headers(headers) for header in sorted_headers: canonicalized_headers = f'{canonicalized_headers}{header}:{StringClient.trim(headers.get(header))}\n' return canonicalized_headers async def build_canonicalized_headers_for_pop_async( self, headers: Dict[str, str], ) -> str: canonicalized_headers = '' sorted_headers = await self.get_signed_headers_async(headers) for header in sorted_headers: canonicalized_headers = f'{canonicalized_headers}{header}:{StringClient.trim(headers.get(header))}\n' return canonicalized_headers def get_signed_headers( self, headers: Dict[str, str], ) -> List[str]: headers_array = MapClient.key_set(headers) sorted_headers_array = ArrayClient.asc_sort(headers_array) tmp = '' separator = '' for key in sorted_headers_array: lower_key = StringClient.to_lower(key) if StringClient.has_prefix(lower_key, 'x-acs-') or StringClient.equals(lower_key, 'host') or StringClient.equals(lower_key, 'content-type'): if not StringClient.contains(tmp, lower_key): tmp = f'{tmp}{separator}{lower_key}' separator = ';' return StringClient.split(tmp, ';', 0) async def get_signed_headers_async( self, headers: Dict[str, str], ) -> List[str]: headers_array = MapClient.key_set(headers) sorted_headers_array = ArrayClient.asc_sort(headers_array) tmp = '' separator = '' for key in sorted_headers_array: lower_key = StringClient.to_lower(key) if StringClient.has_prefix(lower_key, 'x-acs-') or StringClient.equals(lower_key, 'host') or StringClient.equals(lower_key, 'content-type'): if not StringClient.contains(tmp, lower_key): tmp = f'{tmp}{separator}{lower_key}' separator = ';' return StringClient.split(tmp, ';', 0) def sign_request( self, request: gateway_fc_models.HttpRequest, credential: CredentialClient, ) -> Dict[str, Any]: http_request = gateway_fc_models.HttpRequest( method=request.method, path=request.path, headers=request.headers, body=request.body, req_body_type=request.req_body_type ) http_request.headers['date'] = UtilClient.get_date_utcstring() http_request.headers['accept'] = 'application/json' http_request.headers['content-type'] = 'application/json' if not UtilClient.is_unset(request.body): if UtilClient.equal_string(request.req_body_type, 'json'): http_request.headers['content-type'] = 'application/json' elif UtilClient.equal_string(request.req_body_type, 'form'): http_request.headers['content-type'] = 'application/x-www-form-urlencoded' elif UtilClient.equal_string(request.req_body_type, 'binary'): http_request.headers['content-type'] = 'application/octet-stream' access_key_id = credential.get_access_key_id() access_key_secret = credential.get_access_key_secret() security_token = credential.get_security_token() if not UtilClient.empty(security_token): http_request.headers['x-fc-security-token'] = security_token resource = request.path content_md_5 = http_request.headers.get('content-md5') if UtilClient.is_unset(content_md_5): content_md_5 = '' content_type = http_request.headers.get('content-type') if UtilClient.is_unset(content_type): content_type = '' string_to_sign = '' canonicalized_resource = self.build_canonicalized_resource(resource) canonicalized_headers = self.build_canonicalized_headers(http_request.headers) string_to_sign = f"{request.method}\n{UtilClient.to_jsonstring(content_md_5)}\n{UtilClient.to_jsonstring(content_type)}\n{UtilClient.to_jsonstring(http_request.headers.get('date'))}\n{canonicalized_headers}{canonicalized_resource}" signature = Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, access_key_secret)) http_request.headers['Authorization'] = f'FC {access_key_id}:{signature}' return http_request.headers async def sign_request_async( self, request: gateway_fc_models.HttpRequest, credential: CredentialClient, ) -> Dict[str, Any]: http_request = gateway_fc_models.HttpRequest( method=request.method, path=request.path, headers=request.headers, body=request.body, req_body_type=request.req_body_type ) http_request.headers['date'] = UtilClient.get_date_utcstring() http_request.headers['accept'] = 'application/json' http_request.headers['content-type'] = 'application/json' if not UtilClient.is_unset(request.body): if UtilClient.equal_string(request.req_body_type, 'json'): http_request.headers['content-type'] = 'application/json' elif UtilClient.equal_string(request.req_body_type, 'form'): http_request.headers['content-type'] = 'application/x-www-form-urlencoded' elif UtilClient.equal_string(request.req_body_type, 'binary'): http_request.headers['content-type'] = 'application/octet-stream' access_key_id = await credential.get_access_key_id_async() access_key_secret = await credential.get_access_key_secret_async() security_token = await credential.get_security_token_async() if not UtilClient.empty(security_token): http_request.headers['x-fc-security-token'] = security_token resource = request.path content_md_5 = http_request.headers.get('content-md5') if UtilClient.is_unset(content_md_5): content_md_5 = '' content_type = http_request.headers.get('content-type') if UtilClient.is_unset(content_type): content_type = '' string_to_sign = '' canonicalized_resource = await self.build_canonicalized_resource_async(resource) canonicalized_headers = await self.build_canonicalized_headers_async(http_request.headers) string_to_sign = f"{request.method}\n{UtilClient.to_jsonstring(content_md_5)}\n{UtilClient.to_jsonstring(content_type)}\n{UtilClient.to_jsonstring(http_request.headers.get('date'))}\n{canonicalized_headers}{canonicalized_resource}" signature = Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, access_key_secret)) http_request.headers['Authorization'] = f'FC {access_key_id}:{signature}' return http_request.headers def build_canonicalized_resource( self, pathname: str, ) -> str: paths = StringClient.split(pathname, f'?', 2) canonicalized_resource = paths[0] resources = {} if UtilClient.equal_number(ArrayClient.size(paths), 2): resources = StringClient.split(paths[1], '&', 0) sorted_params = ArrayClient.asc_sort(resources) if UtilClient.equal_number(ArrayClient.size(sorted_params), 0): return f'{canonicalized_resource}\n' sub_resources = ArrayClient.join(sorted_params, '\n') return f'{canonicalized_resource}\n{sub_resources}' async def build_canonicalized_resource_async( self, pathname: str, ) -> str: paths = StringClient.split(pathname, f'?', 2) canonicalized_resource = paths[0] resources = {} if UtilClient.equal_number(ArrayClient.size(paths), 2): resources = StringClient.split(paths[1], '&', 0) sorted_params = ArrayClient.asc_sort(resources) if UtilClient.equal_number(ArrayClient.size(sorted_params), 0): return f'{canonicalized_resource}\n' sub_resources = ArrayClient.join(sorted_params, '\n') return f'{canonicalized_resource}\n{sub_resources}' def build_canonicalized_headers( self, headers: Dict[str, Any], ) -> str: canonicalized_headers = '' keys = MapClient.key_set(headers) sorted_headers = ArrayClient.asc_sort(keys) for header in sorted_headers: if StringClient.contains(StringClient.to_lower(header), 'x-fc-'): canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{UtilClient.to_jsonstring(headers.get(header))}\n' return canonicalized_headers async def build_canonicalized_headers_async( self, headers: Dict[str, Any], ) -> str: canonicalized_headers = '' keys = MapClient.key_set(headers) sorted_headers = ArrayClient.asc_sort(keys) for header in sorted_headers: if StringClient.contains(StringClient.to_lower(header), 'x-fc-'): canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{UtilClient.to_jsonstring(headers.get(header))}\n' return canonicalized_headers
48.949195
239
0.653309
4,427
39,502
5.560425
0.050147
0.040949
0.0195
0.025024
0.938089
0.915827
0.894134
0.887918
0.876341
0.8646
0
0.004937
0.246266
39,502
806
240
49.009926
0.821824
0.001848
0
0.85098
1
0.013072
0.130624
0.08568
0
0
0
0
0.015686
1
0.026144
false
0
0.019608
0
0.090196
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
c0bea784fe5de913f766d7b048b711625f9983e4
32,696
py
Python
RegnierProblemLP.py
LuizHNLorena/Regnier-Problem
6481c3918fccb7e7f54783ea1094604e0571432a
[ "MIT" ]
null
null
null
RegnierProblemLP.py
LuizHNLorena/Regnier-Problem
6481c3918fccb7e7f54783ea1094604e0571432a
[ "MIT" ]
null
null
null
RegnierProblemLP.py
LuizHNLorena/Regnier-Problem
6481c3918fccb7e7f54783ea1094604e0571432a
[ "MIT" ]
null
null
null
#coding: utf-8 import csv import time from igraph import Graph class RegnierProblemLP: """Regnier Problem Class Clustering qualitative data through Integer Linear Programming. Attributes: S (list of list of int): Similarity Matrix n (int): Number of instances m (int): Number of attributes """ def __init__(self,dataset): """Receives dataset name and construct Similarity Matrix It receives as parameter the path to the dataset. The dataset is stored temporaly in matrix 'D', while its dimensions are store in 'n' and 'm'. A Similarity Matrix 'S', with size (nxn) is constructed using the simetric difference between each element. Missing values '?' are compensated when calculating the simetric difference Args: dataset (str): The path to the dataset file. """ self.__S=[] self.__n=0 self.__m=0 # Store dataset files in matrix 'D' and get 'n' and 'm' values D=[] with open(dataset, 'r') as csvfile: spamreader = csv.reader(csvfile, delimiter=' ', quotechar='|') for row in spamreader: D.append([]) for v in row: D[self.__n].append(v) self.__m = self.__m + 1 self.__n = self.__n + 1 self.__m=self.__m//self.__n # Create similarity matrix. Initializing it with -m-1 in the lower triangle of matrix 'S' for i in range(self.__n): self.__S.append([]) for j in range (self.__n): self.__S[i].append(-self.__m -1) # Calculate the simetric difference between each instance and store it in 'S'. # The (-) negates the distance, transforming it into a similarity measure. # Missing values "?" are ignored in the similarity calculus. for i in range(self.__n): for j in range (self.__n): if i != j: total = 0 total_missing = 0 for k in range(self.__m): if D[i][k] != "?" and D[j][k] != "?": if D[i][k] == D[j][k]: total = total + 1 else: total_missing = total_missing + 1 self.__S[i][j] = -((self.__m - total_missing) - 2*(total)) def saveRM(self,filename,lp_problem=False): """"Save Original Model (RM) Save the original model of Regnier Problem in LP file format. Args: filename (str): The path to save the LP file. lp_problem (bool,optional): If True save it as Linear Programming instead of ILP. Returns: Nothing. """ # Create LP print ("Creating Model file...") filename = filename + "(RM).lp" f = open(filename, 'w') f.write("\ENCODING=ISO-8859-1\n") f.write("\Problem name: RM model\n\n") f.write("Maximize\n") f.write(" obj: \n") total = 0 for i in range(self.__n): for j in range(i+1,self.__n): if total == 4: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) total = 0 else: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) total = total + 1 # Insert Constraints f.write("\nSubject To\n") contraintID = 1 for i in range(self.__n): for j in range(i+1,self.__n): for k in range(j+1,self.__n): # dij + djk - dik <= 1 constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # dij - djk + dik <= 1 constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # -dij + djk + dik <= 1 constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # Variables bounds f.write("\nBounds\n") for i in range(self.__n): for j in range(i+1,self.__n): bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n") f.write("%s" % bounds) # If ILP define variables as binaries if(lp_problem==False): f.write("\nBinaries\n") total = 0 var_name = "" for i in range(self.__n): for j in range(i+1,self.__n): total = total + 1 if total == 4: var_name = var_name + (" v."+str(i)+"."+str(j)+"\n") f.write("%s" % var_name) total = 0 var_name = "" else: var_name = var_name + (" v."+str(i)+"."+str(j)) f.write("End\n") f.close() print("Model file created.") def saveRMalpha(self,filename,lp_problem=False): """"Save Alpha Model (RMalpha0) Save the Alpha model proposed by Miyauchi and Sukegawa[1] in LP file format. [1] Miyauchi, Atsushi, and Noriyoshi Sukegawa. "Redundant constraints in the standard formulation for the clique partitioning problem." Optimization Letters 9.1 (2015): 199-207. Args: filename (str): The path to save the LP file. lp_problem (bool,optional): If True save it as Linear Programming instead of ILP. Returns: Nothing. """ cut = 0 # Create LP print ("Creating Model file...") filename = filename + "(RMalpha0).lp" f = open(filename, 'w') f.write("\ENCODING=ISO-8859-1\n") f.write("\Problem name: RMalpha0 model\n\n") f.write("Maximize\n") f.write(" obj: \n") total = 0 for i in range(self.__n): for j in range(i+1,self.__n): if total == 4: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) total = 0 else: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) total = total + 1 # Insert Constraints f.write("\nSubject To\n") contraintID = 1 for i in range(self.__n): for j in range(i+1,self.__n): for k in range(j+1,self.__n): # dij + djk - dik <= 1 if (self.__S[i][j] >= cut or self.__S[j][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # dij - djk + dik <= 1 if (self.__S[i][j] >= cut or self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # -dij + djk + dik <= 1 if (self.__S[j][k] >= cut or self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 f.write("Bounds\n") for i in range(self.__n): for j in range(i+1,self.__n): bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n") f.write("%s" % bounds) if(lp_problem==False): f.write("Binaries\n") total = 0 var_name = "" for i in range(self.__n): for j in range(i+1,self.__n): total = total + 1 if total == 4: var_name = var_name + (" v."+str(i)+"."+str(j)+"\n") f.write("%s" % var_name) total = 0 var_name = "" else: var_name = var_name + (" v."+str(i)+"."+str(j)) f.write("End\n") f.close() print("Model file created.") def saveRMalphaPlus(self,filename,lp_problem=False,debug=False): """"Save Alpha Plus Model (RMalpha+) Save the Alpha Plus model proposed as extension to the (RMalpha) proposed by Miyauchi and Sukegawa[1]. [1] Miyauchi, Atsushi, and Noriyoshi Sukegawa. "Redundant constraints in the standard formulation for the clique partitioning problem." Optimization Letters 9.1 (2015): 199-207. Args: filename (str): The path to save the LP file. lp_problem (bool,optional): If True save it as Linear Programming instead of ILP. debug (bool,optional): If True shows heuristic debug information. Returns: Nothing. """ heuristic = self.__findPositiveCut(debug=debug) cut = heuristic['cut'] # Create LP print ("Creating Model file...") filename = filename + "(RMalpha+).lp" f = open(filename, 'w') f.write("\ENCODING=ISO-8859-1\n") f.write("\Problem name: RMalpha+ model\n\n") f.write("Maximize\n") f.write(" obj: \n") total = 0 for i in range(self.__n): for j in range(i+1,self.__n): if total == 4: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) total = 0 else: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) total = total + 1 # Insert Constraints f.write("\nSubject To\n") contraintID = 1 for i in range(self.__n): for j in range(i+1,self.__n): for k in range(j+1,self.__n): # dij + djk - dik <= 1 if (self.__S[i][j] >= cut or self.__S[j][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # dij - djk + dik <= 1 if (self.__S[i][j] >= cut or self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # -dij + djk + dik <= 1 if (self.__S[j][k] >= cut or self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 f.write("Bounds\n") for i in range(self.__n): for j in range(i+1,self.__n): bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n") f.write("%s" % bounds) if(lp_problem==False): f.write("Binaries\n") total = 0 var_name = "" for i in range(self.__n): for j in range(i+1,self.__n): total = total + 1 if total == 4: var_name = var_name + (" v."+str(i)+"."+str(j)+"\n") f.write("%s" % var_name) total = 0 var_name = "" else: var_name = var_name + (" v."+str(i)+"."+str(j)) f.write("End\n") f.close() print("Model file created.") def saveRMbeta(self,filename,lp_problem=False): """"Save Beta Model (RMbeta0) Save the Beta model proposed by Miyauchi and Sukegawa[1] in LP file format. [1] Miyauchi, Atsushi, and Noriyoshi Sukegawa. "Redundant constraints in the standard formulation for the clique partitioning problem." Optimization Letters 9.1 (2015): 199-207. Args: filename (str): The path to save the LP file. lp_problem (bool,optional): If True save it as Linear Programming instead of ILP. Returns: Nothing. """ cut = 0 # Create LP print ("Creating Model file...") filename = filename + "(RMbeta0).lp" f = open(filename, 'w') f.write("\ENCODING=ISO-8859-1\n") f.write("\Problem name: RMbeta model\n\n") f.write("Maximize\n") f.write(" obj: \n") total = 0 for i in range(self.__n): for j in range(i+1,self.__n): if total == 4: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) total = 0 else: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) total = total + 1 # Insert Constraints f.write("\nSubject To\n") contraintID = 1 for i in range(self.__n): for j in range(i+1,self.__n): for k in range(j+1,self.__n): # dij + djk - dik <= 1 if (self.__S[i][j] + self.__S[j][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # dij - djk + dik <= 1 if (self.__S[i][j] + self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # -dij + djk + dik <= 1 if (self.__S[j][k] + self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 f.write("Bounds\n") for i in range(self.__n): for j in range(i+1,self.__n): bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n") f.write("%s" % bounds) if(lp_problem==False): f.write("Binaries\n") total = 0 var_name = "" for i in range(self.__n): for j in range(i+1,self.__n): total = total + 1 if total == 4: var_name = var_name + (" v."+str(i)+"."+str(j)+"\n") f.write("%s" % var_name) total = 0 var_name = "" else: var_name = var_name + (" v."+str(i)+"."+str(j)) f.write("End\n") f.close() print("Model file created.") def saveRMbetaPlus(self,filename,lp_problem=False,debug=False): """"Save Beta Plus Model (RMbeta+) Save the Beta Plus model proposed as extension to the (RMbeta) proposed by Miyauchi and Sukegawa[1]. [1] Miyauchi, Atsushi, and Noriyoshi Sukegawa. "Redundant constraints in the standard formulation for the clique partitioning problem." Optimization Letters 9.1 (2015): 199-207. Args: filename (str): The path to save the LP file. lp_problem (bool,optional): If True save it as Linear Programming instead of ILP. debug (bool,optional): If True shows heuristic debug information. Returns: Nothing. """ heuristic = self.__findPositiveCut(debug=debug) cut = heuristic['cut'] # Create LP print ("Creating Model file...") filename = filename + "(RMbeta+).lp" f = open(filename, 'w') f.write("\ENCODING=ISO-8859-1\n") f.write("\Problem name: RMbeta+ model\n\n") f.write("Maximize\n") f.write(" obj: \n") total = 0 for i in range(self.__n): for j in range(i+1,self.__n): if total == 4: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) total = 0 else: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) total = total + 1 # Insert Constraints f.write("\nSubject To\n") contraintID = 1 for i in range(self.__n): for j in range(i+1,self.__n): for k in range(j+1,self.__n): # dij + djk - dik <= 1 if (self.__S[i][j] + self.__S[j][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # dij - djk + dik <= 1 if (self.__S[i][j] + self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # -dij + djk + dik <= 1 if (self.__S[j][k] + self.__S[i][k] >= cut): constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 f.write("Bounds\n") for i in range(self.__n): for j in range(i+1,self.__n): bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n") f.write("%s" % bounds) if(lp_problem==False): f.write("Binaries\n") total = 0 var_name = "" for i in range(self.__n): for j in range(i+1,self.__n): total = total + 1 if total == 4: var_name = var_name + (" v."+str(i)+"."+str(j)+"\n") f.write("%s" % var_name) total = 0 var_name = "" else: var_name = var_name + (" v."+str(i)+"."+str(j)) f.write("End\n") f.close() print("Model file created.") def saveRMgamma(self,filename,lp_problem=False,debug=False): """"Save Gamma Model (RMgamma) Save the Gamma model proposed to extend the models proposed by Miyauchi and Sukegawa[1]. [1] Miyauchi, Atsushi, and Noriyoshi Sukegawa. "Redundant constraints in the standard formulation for the clique partitioning problem." Optimization Letters 9.1 (2015): 199-207. Args: filename (str): The path to save the LP file. lp_problem (bool,optional): If True save it as Linear Programming instead of ILP. debug (bool,optional): If True shows heuristic debug information. Returns: Nothing. """ # Calculate best gamma heuristic = self.__findNegativeCut(debug=debug) gamma = heuristic['cut'] # Create LP print ("Creating Model file...") filename = filename + "(RMgamma).lp" f = open(filename, 'w') f.write("\ENCODING=ISO-8859-1\n") f.write("\Problem name: RMgamma model\n\n") f.write("Maximize\n") f.write(" obj: \n") total = 0 for i in range(self.__n): for j in range(i+1,self.__n): if total == 4: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n") f.write("%s" % var_name) total = 0 else: if self.__S[i][j] >= 0: var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) else: var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)) f.write("%s" % var_name) total = total + 1 # Insert Constraints f.write("\nSubject To\n") contraintID = 1 for i in range(self.__n): for j in range(i+1,self.__n): for k in range(j+1,self.__n): # dij + djk - dik <= 1 if (self.__S[i][j] >= 0 and self.__S[j][k] >= gamma and self.__S[i][k] <= 0): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # dij - djk + dik <= 1 if (self.__S[i][j] >= 0 and self.__S[j][k] <= 0 and self.__S[i][k] >= gamma): constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 # -dij + djk + dik <= 1 if (self.__S[i][j] <= 0 and self.__S[j][k] >= gamma and self.__S[i][k] >= 0): constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n") f.write("%s" % constraint) contraintID = contraintID + 1 f.write("Bounds\n") for i in range(self.__n): for j in range(i+1,self.__n): bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n") f.write("%s" % bounds) if(lp_problem==False): f.write("Binaries\n") total = 0 var_name = "" for i in range(self.__n): for j in range(i+1,self.__n): total = total + 1 if total == 4: var_name = var_name + (" v."+str(i)+"."+str(j)+"\n") f.write("%s" % var_name) total = 0 var_name = "" else: var_name = var_name + (" v."+str(i)+"."+str(j)) f.write("End\n") f.close() print("Model file created.") def __findPositiveCut(self,debug=False): """Best positive cut heuristic. Heuristic to find the best cut value to construct the Alpha Plus Model (RMalpha+). Args: debug (bool,optional): Show debug information. Returns: A Heuristic object that contains all the relevant info about the heuristic. """ time_total = time.time() # Graph and unique set construction time_graph_construction = time.time() graph_positive = Graph() graph_positive.add_vertices(self.__n) unique_positive_weights = set() for i in range(self.__n): for j in range (i+1,self.__n): if self.__S[i][j] >= 0: graph_positive.add_edge(i,j,weight=self.__S[i][j]) unique_positive_weights.add(self.__S[i][j]) time_graph_construction = time.time() - time_graph_construction # Sort unique weights and start heuristic to find the best cut value time_find_best_cut = time.time() unique_positive_weights = sorted(unique_positive_weights) # Test different cuts and check connected best_positive_cut = 0 for newCut in unique_positive_weights: edges_to_delete = graph_positive.es.select(weight_lt=newCut) graph_positive.delete_edges(edges_to_delete) if graph_positive.is_connected(): best_positive_cut = newCut else: break time_find_best_cut = time.time() - time_find_best_cut time_total = time.time() - time_total if debug==True: print ("################################") print ("# Heuristic debug info") print ("################################") print ("Time Graph Construction: %f" %(time_graph_construction)) print ("Time Heuristic to find best cut: %f" %(time_find_best_cut)) print ("Total Time: %f" %(time_total)) print ("NEW (Best cut+): %d" %(best_positive_cut)) print ("################################") heuristic={} heuristic['cut'] = best_positive_cut heuristic['time_total']=time_total heuristic['time_graph_construction']=time_graph_construction heuristic['time_find_best_cut']=time_find_best_cut return heuristic def __findNegativeCut(self,debug=False): """Best negative cut heuristic. Heuristic to find the best cut value to construct the Gamma Model (RMgamma). Args: debug (bool,optional): Show debug information. Returns: A Heuristic object that contains all the relevant info about the heuristic. """ time_total = time.time() # Graph and unique set construction time_graph_construction = time.time() graph_negative = Graph() graph_negative.add_vertices(self.__n) unique_negative_weights = set() for i in range(self.__n): for j in range (i+1,self.__n): if self.__S[i][j] <= 0: graph_negative.add_edge(i,j,weight=self.__S[i][j]) unique_negative_weights.add(self.__S[i][j]) time_graph_construction = time.time() - time_graph_construction # Sort unique weights and start heuristic to find the best cut value time_find_best_cut = time.time() unique_negative_weights = sorted(unique_negative_weights) # Test different cuts and check connected best_negative_cut = 0 for newCut in unique_negative_weights: edges_to_delete = graph_negative.es.select(weight_lt=newCut) graph_negative.delete_edges(edges_to_delete) if graph_negative.is_connected(): best_negative_cut = newCut else: break time_find_best_cut = time.time() - time_find_best_cut time_total = time.time() - time_total if debug==True: print ("Time Graph Construction: %f" %(time_graph_construction)) print ("Time Heuristic to find best cut: %f" %(time_find_best_cut)) print ("Total Time: %f" %(time_total)) print ("NEW (Best cut-): %d" %(best_negative_cut)) heuristic={} heuristic['cut'] = best_negative_cut heuristic['time_total']=time_total heuristic['time_graph_construction']=time_graph_construction heuristic['time_find_best_cut']=time_find_best_cut return heuristic
42.908136
153
0.431184
3,810
32,696
3.549081
0.062205
0.04526
0.028842
0.046147
0.845289
0.826209
0.807351
0.797885
0.778953
0.778953
0
0.015268
0.413047
32,696
761
154
42.96452
0.689334
0.163934
0
0.834971
0
0
0.091628
0.01067
0
0
0
0
0
1
0.017682
false
0
0.005894
0
0.02947
0.047151
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
239016e61ac991ad886affdfc5c52afe78549960
1,203
py
Python
safe_transaction_service/history/indexers/decoder_abis/maker_dao.py
fmrsabino/safe-transaction-service
bafc7a7f76c282295efa8de19958185ef7773622
[ "MIT" ]
null
null
null
safe_transaction_service/history/indexers/decoder_abis/maker_dao.py
fmrsabino/safe-transaction-service
bafc7a7f76c282295efa8de19958185ef7773622
[ "MIT" ]
null
null
null
safe_transaction_service/history/indexers/decoder_abis/maker_dao.py
fmrsabino/safe-transaction-service
bafc7a7f76c282295efa8de19958185ef7773622
[ "MIT" ]
null
null
null
import json maker_dao_erc20_fee_proxy = json.loads('[{"anonymous":false,"inputs":[{"indexed":false,"internalType":"address","name":"tokenAddress","type":"address"},{"indexed":false,"internalType":"address","name":"to","type":"address"},{"indexed":false,"internalType":"uint256","name":"amount","type":"uint256"},{"indexed":true,"internalType":"bytes","name":"paymentReference","type":"bytes"},{"indexed":false,"internalType":"uint256","name":"feeAmount","type":"uint256"},{"indexed":false,"internalType":"address","name":"feeAddress","type":"address"}],"name":"TransferWithReferenceAndFee","type":"event"},{"payable":true,"stateMutability":"payable","type":"fallback"},{"constant":false,"inputs":[{"internalType":"address","name":"_tokenAddress","type":"address"},{"internalType":"address","name":"_to","type":"address"},{"internalType":"uint256","name":"_amount","type":"uint256"},{"internalType":"bytes","name":"_paymentReference","type":"bytes"},{"internalType":"uint256","name":"_feeAmount","type":"uint256"},{"internalType":"address","name":"_feeAddress","type":"address"}],"name":"transferFromWithReferenceAndFee","outputs":[],"payable":false,"stateMutability":"nonpayable","type":"function"}]')
300.75
1,189
0.703242
118
1,203
7.084746
0.29661
0.105263
0.165072
0.111244
0.691388
0.619617
0.114833
0
0
0
0
0.021721
0.004988
1,203
3
1,190
401
0.676692
0
0
0
0
0.5
0.95345
0.95345
0
0
0
0
0
1
0
false
0
0.5
0
0.5
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
0
0
0
0
0
1
1
1
null
0
0
0
0
0
0
0
0
1
0
0
0
0
7
239f9fe1ee4c6ddd8fe3c155a43b4daf2e3e6675
1,536
py
Python
labs/lab5/reinforcementlearning.py
MITLLRacecar/racecar-parth-kocheta
6e244575b83e312880c5540342a380364032d326
[ "MIT" ]
1
2021-08-01T17:06:39.000Z
2021-08-01T17:06:39.000Z
labs/lab5/reinforcementlearning.py
MITLLRacecar/racecar-parth-kocheta
6e244575b83e312880c5540342a380364032d326
[ "MIT" ]
null
null
null
labs/lab5/reinforcementlearning.py
MITLLRacecar/racecar-parth-kocheta
6e244575b83e312880c5540342a380364032d326
[ "MIT" ]
null
null
null
import sys import cv2 as cv import numpy as np sys.path.insert(0, "../../library") import racecar_core import racecar_utils as rc_utils from racecar_utils import ARMarker from enum import Enum, IntEnum import random rc = racecar_core.create_racecar() speed = 0 angle = 0 lidar_arr = [] def start(): rc.drive.stop() def update(): global lidar_arr update_arr() print (lidar_arr) def train_net(model, state): epsilon = 1 train_frames = 100000 observe = 1000 t = 0 distance = 0 while t < train_frames: t += 1 distance +=1 if random.random() < epsilon or t < observe: action = np.random.randint(0, 3) else: qval = model.predict(state, batch_size=1) action = (np.argmax(qval)) #make it save the model every x frames def update_arr(): scan = rc.lidar.get_samples() for i in range (270, ) lidar_arr = rc_utils.get_lidar_average_distance(scan, i , 2.5) import sys import cv2 as cv import numpy as np sys.path.insert(0, "../../library") import racecar_core import racecar_utils as rc_utils from racecar_utils import ARMarker from enum import Enum, IntEnum rc = racecar_core.create_racecar() speed = 0 angle = 0 lidar_arr = [] def start(): rc.drive.stop() def update(): global lidar_arr update_arr() print (lidar_arr) def update_arr(): scan = rc.lidar.get_samples() for i in range (270, ) lidar_arr = rc_utils.get_lidar_average_distance(scan, i , 2.5)
16.695652
66
0.651693
229
1,536
4.20524
0.318777
0.066459
0.045691
0.037383
0.748702
0.748702
0.748702
0.748702
0.748702
0.748702
0
0.03125
0.25
1,536
92
67
16.695652
0.804688
0.024089
0
0.745763
0
0
0.017345
0
0
0
0
0
0
0
null
null
0
0.254237
null
null
0.033898
0
0
0
null
0
0
0
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
7
23a558f6a789aa8ee1b8281bc3beeffde1c47091
3,809
py
Python
GMATE/dialogs.py
lexrupy/gmate-editor
7036d58a083ad6c05c1eb4cf7cb92405b369adb7
[ "MIT" ]
1
2016-05-09T11:48:44.000Z
2016-05-09T11:48:44.000Z
GMATE/dialogs.py
lexrupy/gmate-editor
7036d58a083ad6c05c1eb4cf7cb92405b369adb7
[ "MIT" ]
null
null
null
GMATE/dialogs.py
lexrupy/gmate-editor
7036d58a083ad6c05c1eb4cf7cb92405b369adb7
[ "MIT" ]
null
null
null
# -*- coding: utf-8 -*- # GMate - Plugin Based Programmer's Text Editor # Copyright © 2008-2009 Alexandre da Silva # # This file is part of Gmate. # # See LICENTE.TXT for licence information import gtk import gnomevfs from GMATE import files from GMATE import i18n as i def error(message): """Displays on error dialog with a single stock OK button.""" dialog = gtk.MessageDialog(None, gtk.DIALOG_MODAL, gtk.MESSAGE_ERROR, gtk.BUTTONS_OK, message) response = dialog.run() dialog.destroy() def choice_ok_cancel(message, cancelDefault=False): """Displays an ok/cancel message dialog.""" default = gtk.RESPONSE_OK if cancelDefault: default = gtk.RESPONSE_CANCEL dialog = gtk.MessageDialog(None, gtk.DIALOG_MODAL, gtk.MESSAGE_QUESTION, gtk.BUTTONS_OK_CANCEL, message) dialog.set_default_response(default) response = dialog.run() dialog.destroy() return response def choice_yes_no(message, noDefault=False): """Displays an yes/no message dialog.""" default = gtk.RESPONSE_YES if noDefault: default = gtk.RESPONSE_NO dialog = gtk.MessageDialog(None, gtk.DIALOG_MODAL, gtk.MESSAGE_QUESTION, gtk.BUTTONS_YES_NO, message) dialog.set_default_response(default) response = dialog.run() dialog.destroy() return response def retrieve_new_file_name(uri=None): """Get the name of a file to create.""" dialog = gtk.FileChooserDialog(action=gtk.FILE_CHOOSER_ACTION_SAVE) dialog.add_buttons(gtk.STOCK_CANCEL, gtk.RESPONSE_CANCEL, gtk.STOCK_ADD, gtk.RESPONSE_OK) # Default to the users home directory if uri is None: uri = files.get_user_home_uri() dialog.set_current_folder_uri(str(uri)) # Get the response and the URI response = dialog.run() file_uri = dialog.get_uri() dialog.destroy() if response == gtk.RESPONSE_OK: if file_uri is not None: write = True # Check to be sure if the user wants to overwrite a file if gnomevfs.exists(file_uri): response = choice_yes_no(i.file_already_exists, True) if response == gtk.RESPONSE_NO: write = False if write: # Return the new filename return file_uri else: raise IOError, i.no_file_specified return None def retrieve_new_file_name(uri=None): """Get the name of a file to create.""" dialog = gtk.FileChooserDialog(action=gtk.FILE_CHOOSER_ACTION_SAVE) dialog.add_buttons(gtk.STOCK_CANCEL, gtk.RESPONSE_CANCEL, gtk.STOCK_SAVE, gtk.RESPONSE_OK) # Default to the users home directory if uri is None: uri = files.get_user_home_uri() dialog.set_current_folder_uri(str(uri)) # Get the response and the URI response = dialog.run() file_uri = dialog.get_uri() dialog.destroy() if response == gtk.RESPONSE_OK: if file_uri is not None: write = True # Check to be sure if the user wants to overwrite a file if gnomevfs.exists(file_uri): response = choice_yes_no(i.file_already_exists, True) if response == gtk.RESPONSE_NO: write = False if write: # Return the new filename return file_uri else: raise IOError, i.no_file_specified return None
34.315315
71
0.589656
459
3,809
4.714597
0.22658
0.060998
0.039279
0.038817
0.774954
0.73244
0.73244
0.73244
0.73244
0.709335
0
0.004356
0.337096
3,809
110
72
34.627273
0.852277
0.121817
0
0.768293
0
0
0
0
0
0
0
0
0
0
null
null
0
0.04878
null
null
0
0
0
0
null
0
0
0
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
7
23a81c02c1c28ed0cf4db8f5169ca92cf6510372
27
py
Python
utokenize/testdata/no_nl2.py
AEMICS/pycopy-lib
56f4436123e30be9928662361098a71cae82eecc
[ "PSF-2.0" ]
126
2019-07-19T14:42:41.000Z
2022-03-21T22:22:19.000Z
utokenize/testdata/no_nl2.py
AEMICS/pycopy-lib
56f4436123e30be9928662361098a71cae82eecc
[ "PSF-2.0" ]
38
2019-08-28T01:46:31.000Z
2022-03-17T05:46:51.000Z
utokenize/testdata/no_nl2.py
AEMICS/pycopy-lib
56f4436123e30be9928662361098a71cae82eecc
[ "PSF-2.0" ]
55
2019-08-02T09:32:33.000Z
2021-12-22T11:25:51.000Z
if 1: if 2: 123
9
11
0.333333
5
27
1.8
0.8
0
0
0
0
0
0
0
0
0
0
0.454545
0.592593
27
3
11
9
0.363636
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
0
0
0
0
1
1
1
null
0
0
0
0
0
0
0
0
0
0
1
1
0
1
0
0
1
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
0
0
0
0
0
8
f1a0981dfa0e11dd31536732e46f44452840544b
961
py
Python
EdwinEngine/led_indicators.py
Alexander1022/EdwinProject
ae347be9bf3c2886975096c61c98c69d143ae0a3
[ "MIT" ]
1
2020-12-08T18:14:40.000Z
2020-12-08T18:14:40.000Z
EdwinEngine/led_indicators.py
Alexander1022/EdwinProject
ae347be9bf3c2886975096c61c98c69d143ae0a3
[ "MIT" ]
null
null
null
EdwinEngine/led_indicators.py
Alexander1022/EdwinProject
ae347be9bf3c2886975096c61c98c69d143ae0a3
[ "MIT" ]
null
null
null
import RPi.GPIO as GPIO import time GPIO.setmode(GPIO.BCM) GPIO.setwarnings(False) GPIO.setup(17, GPIO.OUT, initial=GPIO.LOW) GPIO.setup(27, GPIO.OUT, initial=GPIO.LOW) GPIO.setup(22, GPIO.OUT, initial=GPIO.LOW) def startup(): GPIO.output(17, GPIO.HIGH) time.sleep(0.2) GPIO.output(17, GPIO.LOW) GPIO.output(27, GPIO.HIGH) time.sleep(0.2) GPIO.output(27, GPIO.LOW) GPIO.output(22, GPIO.HIGH) time.sleep(0.2) GPIO.output(22, GPIO.LOW) time.sleep(0.2) GPIO.output(22, GPIO.HIGH) time.sleep(0.2) GPIO.output(22, GPIO.LOW) GPIO.output(27, GPIO.HIGH) time.sleep(0.2) GPIO.output(27, GPIO.LOW) GPIO.output(17, GPIO.HIGH) time.sleep(0.2) GPIO.output(17, GPIO.LOW) time.sleep(0.2) def problem(): GPIO.output(22, GPIO.HIGH) time.sleep(0.5) GPIO.output(22, GPIO.LOW) time.sleep(0.5) GPIO.output(22, GPIO.HIGH) time.sleep(0.5) GPIO.output(22, GPIO.LOW) def success(): GPIO.output(17, GPIO.HIGH) time.sleep(2) GPIO.output(17, GPIO.LOW)
21.355556
42
0.702393
181
961
3.729282
0.143646
0.266667
0.162963
0.226667
0.834074
0.802963
0.757037
0.625185
0.592593
0.592593
0
0.076202
0.112383
961
44
43
21.840909
0.715123
0
0
0.725
0
0
0
0
0
0
0
0
0
1
0.075
true
0
0.05
0
0.125
0
0
0
0
null
1
0
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
1
0
0
0
0
0
0
7
f1b8de4eb579b151c8ae80e1a9d12fa95d99d048
8,982
py
Python
basic_knowledge/json_demo.py
lucid-lynxz/PythonDemos
5affed1fd7989e1cedecaa1ee673a0d418231891
[ "Apache-2.0" ]
3
2018-09-11T07:32:16.000Z
2021-01-19T09:05:56.000Z
basic_knowledge/json_demo.py
lucid-lynxz/PythonDemos
5affed1fd7989e1cedecaa1ee673a0d418231891
[ "Apache-2.0" ]
null
null
null
basic_knowledge/json_demo.py
lucid-lynxz/PythonDemos
5affed1fd7989e1cedecaa1ee673a0d418231891
[ "Apache-2.0" ]
null
null
null
#!/usr/local/bin/python3.5 # -*- coding: utf-8 -*- ''' json序列化和反序列化 ''' import json d = dict(name='lynxz', age=29) print(json.dumps(d)) json_str = '{"age": 20, "score": 88, "name": "Bob","data":{"name":"lynxz"}}' obj = json.loads(json_str) # 反序列化 print(obj['age']) # 20 result = 'https://www.pgyer.com/%s' % obj['data']['name'] print(result) # 将json数据转传成一个的python object,而非上面的map from collections import namedtuple data = '{"sta":[{"cod":"0","des":""}],"ext":[{"pk":"扩展信息"}],"datas":[{"systemid":"BFC4829D-7219-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号202室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"202室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"202室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-03-09 10:42:10","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-E082-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号303室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"303室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"303室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-03-09 17:22:35","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DBBD-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号508室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"508室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"508室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-04-26 16:42:06","hsqk":"已核实","times":"3","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC4828D-2B65-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号206室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"206室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"206室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-06-30 11:49:46","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DBBF-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号403室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"403室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"403室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-03-13 09:31:36","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DC9A-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路788号407室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"788号","haozuo_no":"788","haozuo_extra":"","haozuo_detail":"407室","building_id":"","building_name":"","seat_id":"350200110000003422099","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"407室","mapx":"118.10240486","mapy":"24.46552125","hssj":"2017-07-13 10:12:06","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC4828C-C9D0-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路788号403室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"788号","haozuo_no":"788","haozuo_extra":"","haozuo_detail":"403室","building_id":"","building_name":"","seat_id":"350200110000003422099","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"403室","mapx":"118.10240486","mapy":"24.46552125","hssj":"2017-03-09 21:05:56","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DA88-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路1号106室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"1号","haozuo_no":"1","haozuo_extra":"","haozuo_detail":"106室","building_id":"","building_name":"","seat_id":"350200110000000559860","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"106室","mapx":"118.10229746","mapy":"24.4651675","hssj":"2017-06-28 09:20:37","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DAE5-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路1号507室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"1号","haozuo_no":"1","haozuo_extra":"","haozuo_detail":"507室","building_id":"","building_name":"","seat_id":"350200110000000559860","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"507室","mapx":"118.10229746","mapy":"24.4651675","hssj":"2017-07-11 17:02:16","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DAE9-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路3号201室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"3号","haozuo_no":"3","haozuo_extra":"","haozuo_detail":"201室","building_id":"","building_name":"","seat_id":"350200110000003423289","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"201室","mapx":"118.10252358","mapy":"24.46517228","hssj":"2017-07-13 17:04:53","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-D614-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路3号505室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"3号","haozuo_no":"3","haozuo_extra":"","haozuo_detail":"505室","building_id":"","building_name":"","seat_id":"350200110000003423289","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"505室","mapx":"118.10252358","mapy":"24.46517228","hssj":"2017-07-13 17:08:13","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-D619-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路5号502室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"5号","haozuo_no":"5","haozuo_extra":"","haozuo_detail":"502室","building_id":"","building_name":"","seat_id":"350200110000002071597","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"502室","mapx":"118.10229811","mapy":"24.46484161","hssj":"2017-07-12 21:39:50","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"}],"pages":[{"tsize":"6768","pnum":"564"}]}' # data = '{"sta":[{"cod":"0","des":""}],"ext":[{"pk":"扩展信息"}],"name": "John Smith", "hometown": {"name": "北京New York", "id": 123}}' # Parse JSON into an object with attributes corresponding to dict keys. x = json.loads(data, object_hook=lambda d: namedtuple('X', d.keys())(*d.values())) print(len(x.sta),x.pages) # print(len(x.sta), x.name, x.hometown.name, x.hometown.id) num = "" num1 = num or "ass" print(num1)
289.741935
8,144
0.676687
1,197
8,982
4.914787
0.183793
0.016318
0.040796
0.046915
0.825939
0.82152
0.753527
0.753527
0.700663
0.695224
0
0.212586
0.012803
8,982
31
8,145
289.741935
0.450885
0.040303
0
0
0
0.133333
0.957588
0.947246
0
0
0
0
0
1
0
false
0
0.133333
0
0.133333
0.333333
0
0
0
null
0
0
0
1
1
1
1
1
1
0
1
0
0
0
1
1
1
0
0
0
0
0
1
1
null
0
0
0
0
0
0
0
0
0
0
0
0
0
12
f1db39d9fcc9b0d54d84fdaec66f71f10ba26465
6,919
py
Python
czsc/ClPubSub/producer.py
newlyedward/czsc
7b87298a09d2f317afbd9552b001a433f8954c78
[ "MIT" ]
null
null
null
czsc/ClPubSub/producer.py
newlyedward/czsc
7b87298a09d2f317afbd9552b001a433f8954c78
[ "MIT" ]
null
null
null
czsc/ClPubSub/producer.py
newlyedward/czsc
7b87298a09d2f317afbd9552b001a433f8954c78
[ "MIT" ]
null
null
null
#!/usr/bin/env python 3 import pika from czsc.ClPubSub.base import BasePubSub from czsc.ClPubSub.setting import pubsub_ip, pubsub_port, pubsub_user, pubsub_password class Publisher(BasePubSub): def __init__(self, host=pubsub_ip, port=pubsub_port, user=pubsub_user, password=pubsub_password, channel_number=1, queue_name='', routing_key='default', exchange='', exchange_type='fanout', vhost='/', durable=False): super().__init__(host, port, user, password, channel_number, queue_name, routing_key, exchange, exchange_type, vhost) self.channel.queue_declare( self.queue_name, auto_delete=True, exclusive=True) self.channel.exchange_declare(exchange=exchange, exchange_type='fanout', passive=False, durable=durable, auto_delete=False) self.routing_key = routing_key def pub(self, text): # channel.basic_publish向队列中发送信息 # exchange -- 它使我们能够确切地指定消息应该到哪个队列去。 # routing_key 指定向哪个队列中发送消息 # body是要插入的内容, 字符串格式 if isinstance(text, bytes): content_type = 'text/plain' elif isinstance(text, str): content_type = 'text/plain' elif isinstance(text, dict): content_type = 'application/json' try: self.channel.basic_publish(exchange=self.exchange, routing_key=self.routing_key, body=text, properties=pika.BasicProperties(content_type=content_type, delivery_mode=1)) except Exception as e: print(e) self.reconnect().channel.basic_publish(exchange=self.exchange, routing_key=self.routing_key, body=text, properties=pika.BasicProperties(content_type=content_type, delivery_mode=1)) def exit(self): self.connection.close() class PublisherRouting(BasePubSub): def __init__(self, host=pubsub_ip, port=pubsub_port, user=pubsub_user, password=pubsub_password, channel_number=1, queue_name='', routing_key='default', exchange='', exchange_type='direct', vhost='/', durable=False): super().__init__(host, port, user, password, channel_number, queue_name, routing_key, exchange, exchange_type, vhost) self.routing_key = routing_key self.channel.queue_declare( self.queue_name, auto_delete=True, exclusive=True) self.channel.exchange_declare(exchange=exchange, exchange_type=exchange_type, passive=False, durable=durable, auto_delete=False) def pub(self, text, routing_key): # channel.basic_publish向队列中发送信息 # exchange -- 它使我们能够确切地指定消息应该到哪个队列去。 # routing_key 指定向哪个队列中发送消息 # body是要插入的内容, 字符串格式 if isinstance(text, bytes): content_type = 'text/plain' elif isinstance(text, str): content_type = 'text/plain' elif isinstance(text, dict): content_type = 'application/json' try: self.channel.basic_publish(exchange=self.exchange, routing_key=routing_key, body=text, properties=pika.BasicProperties(content_type=content_type, delivery_mode=1)) except Exception as e: print(e) self.reconnect().channel.basic_publish(exchange=self.exchange, routing_key=routing_key, body=text, properties=pika.BasicProperties(content_type=content_type, delivery_mode=1)) def exit(self): self.connection.close() class PublisherTopic(BasePubSub): def __init__(self, host=pubsub_ip, port=pubsub_port, user=pubsub_user, password=pubsub_password, channel_number=1, queue_name='', routing_key='default', exchange='', exchange_type='topic', vhost='/', durable=False): super().__init__(host, port, user, password, channel_number, queue_name, routing_key, exchange, exchange_type, vhost) self.routing_key = routing_key self.channel.queue_declare( self.queue_name, auto_delete=True, exclusive=True) self.channel.exchange_declare(exchange=exchange, exchange_type=exchange_type, passive=False, durable=durable, auto_delete=False) def pub(self, text, routing_key): # channel.basic_publish向队列中发送信息 # exchange -- 它使我们能够确切地指定消息应该到哪个队列去。 # routing_key 指定向哪个队列中发送消息 # body是要插入的内容, 字符串格式 if isinstance(text, bytes): content_type = 'text/plain' elif isinstance(text, str): content_type = 'text/plain' elif isinstance(text, dict): content_type = 'application/json' try: self.channel.basic_publish(exchange=self.exchange, routing_key=routing_key, body=text, properties=pika.BasicProperties(content_type=content_type, delivery_mode=1)) except Exception as e: print(e) self.reconnect().channel.basic_publish(exchange=self.exchange, routing_key=routing_key, body=text, properties=pika.BasicProperties(content_type=content_type, delivery_mode=1)) def exit(self): self.connection.close() if __name__ == '__main__': import datetime p = Publisher(exchange='z3') while True: print(1) p.pub('{}'.format(datetime.datetime.now()))
47.068027
109
0.506865
593
6,919
5.659359
0.151771
0.086412
0.053635
0.041716
0.910012
0.902861
0.902861
0.890644
0.890644
0.890644
0
0.002967
0.415378
6,919
146
110
47.390411
0.8267
0.050441
0
0.854701
0
0
0.025469
0
0
0
0
0
0
1
0.076923
false
0.08547
0.034188
0
0.136752
0.034188
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
1
0
0
0
0
0
8
9e2b5e09d81f88d96de821e06cba28890f99223a
10,586
py
Python
scripts/artifacts/screentimeAll.py
xperylabhub/iLEAPP
fd1b301bf2094387f51ccdbd10ed233ce9abd687
[ "MIT" ]
null
null
null
scripts/artifacts/screentimeAll.py
xperylabhub/iLEAPP
fd1b301bf2094387f51ccdbd10ed233ce9abd687
[ "MIT" ]
1
2021-01-16T05:32:40.000Z
2021-01-16T05:32:40.000Z
scripts/artifacts/screentimeAll.py
xperylabhub/iLEAPP
fd1b301bf2094387f51ccdbd10ed233ce9abd687
[ "MIT" ]
null
null
null
import glob import os import pathlib import plistlib import sqlite3 import scripts.artifacts.artGlobals #use to get iOS version -> iOSversion = scripts.artifacts.artGlobals.versionf from packaging import version #use to search per version number from scripts.artifact_report import ArtifactHtmlReport from scripts.ilapfuncs import logfunc, tsv, is_platform_windows, open_sqlite_db_readonly def get_screentimeAll(files_found, report_folder, seeker): file_found = str(files_found[0]) db = open_sqlite_db_readonly(file_found) iOSversion = scripts.artifacts.artGlobals.versionf if version.parse(iOSversion) < version.parse("12"): logfunc("Unsupported version for Screentime App by Hour on iOS " + iOSversion) return () if version.parse(iOSversion) >= version.parse("13"): cursor = db.cursor() cursor.execute(''' select datetime(zusageblock.zstartdate+978307200,'unixepoch'), zusagetimeditem.zbundleidentifier, zusagetimeditem.zdomain, case zusagecategory.zidentifier when 'DH0011' then 'unspecified1' when 'DH0012' then 'unspecified2' when 'DH0013' then 'unspecified3' when 'DH1001' then 'games' when 'DH1002' then 'social networking' when 'DH1003' then 'entertainment' when 'DH1004' then 'creativity' when 'DH1005' then 'productivity' when 'DH1006' then 'education' when 'DH1007' then 'reading & reference' when 'DH1008' then 'health & fitness' when 'DH1009' then 'other' else zusagecategory.zidentifier end, zusagetimeditem.ztotaltimeinseconds, zusagetimeditem.ztotaltimeinseconds/60.00, zusageblock.znumberofpickupswithoutapplicationusage, zcoredevice.zname, case zcoredevice.zplatform when 0 then 'unknown' when 1 then 'macos' when 2 then 'ios' when 4 then 'apple watch' else zplatform end, zcoreuser.zgivenname as 'given name', zcoreuser.zfamilyname as 'family name', zcoreuser.zfamilymembertype from zusagetimeditem, zusagecategory, zusageblock, zusage, zcoreuser, zcoredevice where zusagecategory.z_pk = zusagetimeditem.zcategory and zusagecategory.zblock = zusageblock.z_pk and zusageblock.zusage = zusage.z_pk and zusage.zuser = zcoreuser.z_pk and zusage.zdevice = zcoredevice.z_pk ''') else: cursor = db.cursor() cursor.execute(''' select datetime(zusageblock.zstartdate+978307200,'unixepoch'), zusagetimeditem.zbundleidentifier, zusagetimeditem.zdomain, case zusagecategory.zidentifier when 'DH0011' then 'unspecified1' when 'DH0012' then 'unspecified2' when 'DH0013' then 'unspecified3' when 'DH1001' then 'games' when 'DH1002' then 'social networking' when 'DH1003' then 'entertainment' when 'DH1004' then 'creativity' when 'DH1005' then 'productivity' when 'DH1006' then 'education' when 'DH1007' then 'reading & reference' when 'DH1008' then 'health & fitness' when 'DH1009' then 'other' else zusagecategory.zidentifier end, zusagetimeditem.ztotaltimeinseconds, zusagetimeditem.ztotaltimeinseconds/60.00, zusageblock.znumberofpickupswithoutapplicationusage, zcoredevice.zname, zcoredevice.zlocaluserdevicestate, zcoreuser.zgivenname, zcoreuser.zfamilyname from zusagetimeditem, zusagecategory, zusageblock, zusage, zcoreuser, zcoredevice where zusagecategory.z_pk = zusagetimeditem.zcategory and zusagecategory.zblock = zusageblock.z_pk and zusageblock.zusage = zusage.z_pk and zusage.zuser = zcoreuser.z_pk and zusage.zdevice = zcoredevice.z_pk ''') all_rows = cursor.fetchall() usageentries = len(all_rows) if usageentries > 0: data_list = [] if version.parse(iOSversion) >= version.parse("13"): for row in all_rows: data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10],row[11])) report = ArtifactHtmlReport('Screentime Timed Items') report.start_artifact_report(report_folder, 'Timed Items') report.add_script() data_headers = ('Hour','Bundle ID','Domain','Category ID', 'App Usage Time Item in Seconds','App Usage Time Item in Minutes','Number of Pickpus w/o App Usage','Name','Platform','Given Name','Family Name','Family Member Type') report.write_artifact_data_table(data_headers, data_list, file_found) report.end_artifact_report() tsvname = 'Screentime Timed Items' tsv(report_folder, data_headers, data_list, tsvname) else: for row in all_rows: data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10])) report = ArtifactHtmlReport('Screentime Timed Items') report.start_artifact_report(report_folder, 'Timed Items') report.add_script() data_headers = ('Hour','Bundle ID','Domain','Category ID', 'App Usage Time Item in Seconds','App Usage Time Item in Minutes','Number of Pickpus w/o App Usage','Name','Local User Device State','Given Name','Family Name') report.write_artifact_data_table(data_headers, data_list, file_found) report.end_artifact_report() tsvname = 'Screentime Timed Items' tsv(report_folder, data_headers, data_list, tsvname) else: logfunc('No data available in table foe Screentime Timed Items') if version.parse(iOSversion) >= version.parse("13"): cursor = db.cursor() cursor.execute(''' select datetime(zusageblock.zstartdate+978307200,'unixepoch'), zusagecounteditem.zbundleidentifier, zusagecounteditem.znumberofnotifications, zusagecounteditem.znumberofpickups, datetime(zusageblock.zfirstpickupdate+978307200,'unixepoch'), zusageblock.znumberofpickupswithoutapplicationusage, zcoredevice.zname, zcoredevice.zlocaluserdevicestate, case zcoredevice.zplatform when 0 then 'unknown' when 1 then 'macos' when 2 then 'ios' when 4 then 'apple watch' else zplatform end, zcoreuser.zgivenname, zcoreuser.zfamilyname from zusagecounteditem, zusageblock, zusage, zcoreuser, zcoredevice where zusagecounteditem.zblock = zusageblock.z_pk and zusageblock.zusage = zusage.z_pk and zusage.zuser = zcoreuser.z_pk and zusage.zdevice = zcoredevice.z_pk ''') else: cursor = db.cursor() cursor.execute(''' select datetime(zusageblock.zstartdate+978307200,'unixepoch'), zusagecounteditem.zbundleidentifier, zusagecounteditem.znumberofnotifications, zusagecounteditem.znumberofpickups, datetime(zusageblock.zfirstpickupdate+978307200,'unixepoch'), zusageblock.znumberofpickupswithoutapplicationusage, zcoredevice.zname, zcoredevice.zlocaluserdevicestate, zcoreuser.zgivenname, zcoreuser.zfamilyname from zusagecounteditem, zusageblock, zusage, zcoreuser, zcoredevice where zusagecounteditem.zblock == zusageblock.z_pk and zusageblock.zusage == zusage.z_pk and zusage.zuser == zcoreuser.z_pk and zusage.zdevice == zcoredevice.z_pk ''') all_rows = cursor.fetchall() usageentries = len(all_rows) if usageentries > 0: data_list = [] if version.parse(iOSversion) >= version.parse("13"): for row in all_rows: data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10])) report = ArtifactHtmlReport('Screentime Counted Items') report.start_artifact_report(report_folder, 'Counted Items') report.add_script() data_headers = ('Hour','Bundle ID','Number of Notifications','Number of Pickups', 'First Pickup','Number of Pickups W/O App Usage','Name','Local User Device State','Platform','Given Name','Family Name') report.write_artifact_data_table(data_headers, data_list, file_found) report.end_artifact_report() tsvname = 'Screentime Counted Items' tsv(report_folder, data_headers, data_list, tsvname) else: for row in all_rows: data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9])) report = ArtifactHtmlReport('Screentime Counted Items') report.start_artifact_report(report_folder, 'Counted Items') report.add_script() data_headers = ('Hour','Bundle ID','Number of Notifications','Number of Pickups', 'First Pickup','Number of Pickups W/O App Usage','Name','Local User Device State','Given Name','Family Name') report.write_artifact_data_table(data_headers, data_list, file_found) report.end_artifact_report() tsvname = 'Screentime Counted Items' tsv(report_folder, data_headers, data_list, tsvname) else: logfunc('No data available in table foe Screentime Counted Items') if version.parse(iOSversion) >= version.parse("13"): cursor = db.cursor() cursor.execute(''' select distinct datetime(zusageblock.zstartdate+978307200,'unixepoch'), zusageblock.zscreentimeinseconds, zusageblock.zscreentimeinseconds/60.00, zcoreuser.zgivenname, zcoreuser.zfamilyname, zcoredevice.zname, case zcoredevice.zplatform when 0 then 'unknown' when 1 then 'macos' when 2 then 'ios' when 4 then 'apple watch' else zplatform end, zcoredevice.zlocaluserdevicestate as 'local user device state', datetime(zusageblock.zlongestsessionstartdate+978307200,'unixepoch'), datetime(zusageblock.zlongestsessionenddate+978307200,'unixepoch'), datetime(zusageblock.zlasteventdate+978307200,'unixepoch'), (zlongestsessionenddate-zlongestsessionstartdate), (zlongestsessionenddate-zlongestsessionstartdate)/60.00 from zusagetimeditem, zusagecategory, zusageblock, zusage, zcoreuser, zcoredevice where zusagecategory.z_pk == zusagetimeditem.zcategory and zusagecategory.zblock == zusageblock.z_pk and zusageblock.zusage == zusage.z_pk and zusage.zuser == zcoreuser.z_pk and zusage.zdevice == zcoredevice.z_pk ''') all_rows = cursor.fetchall() usageentries = len(all_rows) if usageentries > 0: data_list = [] if version.parse(iOSversion) >= version.parse("13"): for row in all_rows: data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10],row[11],row[12])) report = ArtifactHtmlReport('Screentime Generic by Hour') report.start_artifact_report(report_folder, 'Generic by Hour') report.add_script() data_headers = ('Hour','Screentime in Seconds','Screentime in Minutes','Given Name', 'Family Name','Name','Platform','Local User Device State','Longest Session Start','Longest Session End','Last Event Date','Longest Session Time in Seconds','Longest Session Time in Minutes') report.write_artifact_data_table(data_headers, data_list, file_found) report.end_artifact_report() tsvname = 'Screentime Generic by Hour' tsv(report_folder, data_headers, data_list, tsvname) else: logfunc('No data available in table foe Screentime Generic by Hour')
39.062731
280
0.746741
1,298
10,586
5.984592
0.154854
0.008883
0.011586
0.015448
0.836766
0.814882
0.801622
0.801622
0.801622
0.801622
0
0.033352
0.141791
10,586
271
281
39.062731
0.821684
0.010202
0
0.808943
0
0
0.623365
0.207884
0
0
0
0
0
1
0.004065
false
0
0.036585
0
0.044715
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
9e2ff4cd5e406a28581b3e890fac206db3e0d6cd
20,320
py
Python
transformer/vocab.py
wxy1988/ASR
8ef3ef347523044c89c46c263ecc7b8e9b2c06d1
[ "Apache-2.0" ]
60
2018-08-21T08:07:31.000Z
2021-11-08T10:40:17.000Z
transformer/vocab.py
wxy1988/ASR
8ef3ef347523044c89c46c263ecc7b8e9b2c06d1
[ "Apache-2.0" ]
7
2018-10-23T08:50:15.000Z
2021-11-15T09:32:29.000Z
transformer/vocab.py
wxy1988/ASR
8ef3ef347523044c89c46c263ecc7b8e9b2c06d1
[ "Apache-2.0" ]
29
2018-09-21T06:11:03.000Z
2022-02-18T07:12:58.000Z
# coding=utf-8 import codecs import logging import os from argparse import ArgumentParser from collections import Counter import yaml from utils import AttrDict def make_vocab(fpath, fname): """Constructs vocabulary. Args: fpath: A string. Input file path. fname: A string. Output file name. Writes vocabulary line by line to `fname`. """ word2cnt = Counter() for l in codecs.open(fpath, 'r', 'utf-8'): words = l.split() word2cnt.update(Counter(words)) word2cnt.update({"<PAD>": 10000000000000, "<UNK>": 1000000000000, "<S>": 100000000000, "</S>": 10000000000}) with codecs.open(fname, 'w', 'utf-8') as fout: for word, cnt in word2cnt.most_common(): fout.write(u"{}\t{}\n".format(word, cnt)) logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt))) def make_word(fpath, fname): """Constructs vocabulary. Args: fpath: A string. Input file path. fname: A string. Output file name. Writes vocabulary line by line to `fname`. """ word2cnt = Counter() for l in codecs.open(fpath, 'r', 'utf-8'): l = l.strip() words = l.split() words = words[1:] word2cnt.update(Counter(words)) word2cnt.update({"<PAD>": 10000000000000, "<UNK>": 1000000000000, "<S>": 100000000000, "</S>": 10000000000}) with codecs.open(fname, 'w', 'utf-8') as fout: for word, cnt in word2cnt.most_common(): fout.write(u"{}\t{}\n".format(word, cnt)) logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt))) def make_word_multilang(fpath, fname): """Constructs vocabulary. Args: fpath: A string. Input file path. fname: A string. Output file name. Writes vocabulary line by line to `fname`. """ word2cnt = Counter() for l in codecs.open(fpath, 'r', 'utf-8'): l = l.strip() words = l.split() words = words[1:] word2cnt.update(Counter(words)) word2cnt.update({"<PAD>": 10000000000000, "<UNK>": 1000000000000, "<S>": 100000000000, "</S>": 10000000000, "<S_MA>": 1000000009, "<S_EN>": 1000000008, "<S_JA>": 1000000007, "<S_AR>": 1000000006, "<S_GE>": 1000000005, "<S_SP>": 1000000004}) with codecs.open(fname, 'w', 'utf-8') as fout: for word, cnt in word2cnt.most_common(): fout.write(u"{}\t{}\n".format(word, cnt)) logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt))) def make_word_ma_en(fpath, fname): """Constructs vocabulary. Args: fpath: A string. Input file path. fname: A string. Output file name. Writes vocabulary line by line to `fname`. """ word2cnt = Counter() for l in codecs.open(fpath, 'r', 'utf-8'): l = l.strip() words = l.split() words = words[1:] word2cnt.update(Counter(words)) word2cnt.update({"<PAD>": 10000000000000, "<UNK>": 1000000000000, "<S>": 100000000000, "</S>": 10000000000, "<S_MA>": 1000000009, "<S_EN>": 1000000008 }) with codecs.open(fname, 'w', 'utf-8') as fout: for word, cnt in word2cnt.most_common(): fout.write(u"{}\t{}\n".format(word, cnt)) logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt))) def make_word_count(): text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train/text' word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train/word_count.txt' make_word(text_path_in, word_path_out) def make_word_count_thchs30(): text_path_in = '/data/syzhou/work/data/kaldi-trunk/egs/data_process_fzy/s5/data/train_sp/text.char' word_path_out = '/data/syzhou/work/data/kaldi-trunk/egs/data_process_fzy/s5/data/train_sp/words_s2s_thchs30.txt' make_word(text_path_in, word_path_out) def make_word_count_aishell2(): text_path_in = '/data/syzhou/work/data/tensor2tensor/AISHELL2/aishell2_s2s/data/train_dim80/text.char' word_path_out = '/data/syzhou/work/data/tensor2tensor/AISHELL2/aishell2_s2s/words_s2s.txt' make_word(text_path_in, word_path_out) def make_pinyin_count(): text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/pinyin/hkust.train.text.pinyin' word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/pinyin/pinyin_s2s.txt' make_word(text_path_in, word_path_out) def make_word_count_dim80(): text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/text' word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/word_count.txt' make_word(text_path_in, word_path_out) def make_word_count_en(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_en/data/train/text' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_en/data/train/words.txt' make_word(text_path_in, word_path_out) def make_word_count_CALLHOME(lang): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_' + lang + '/data/train/text' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_' + lang + '/data/train/words.txt' make_word(text_path_in, word_path_out) def make_word_count_bpe_10000(): text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_10000/text.bpe_10000' word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_10000/words_s2s.txt.bpe_10000' make_word(text_path_in, word_path_out) def make_word_count_bpe_5000(): text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_5000/text.bpe_5000' word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_5000/words_s2s.txt.bpe_5000' make_word(text_path_in, word_path_out) def make_word_count_bpe_5000_spanish(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/data/train_dim80/text.bpe_5000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/words_s2s.txt.bpe_5000' make_word(text_path_in, word_path_out) def make_word_count_bpe_5000_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_5000' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_5000' make_word(text_path_in, word_path_out) def make_word_count_bpe_3000_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_3000' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_3000' make_word(text_path_in, word_path_out) def make_word_count_bpe_2000_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_2000' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_2000' make_word(text_path_in, word_path_out) def make_word_count_bpe_100_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_100' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_100' make_word(text_path_in, word_path_out) def make_word_count_bpe_500_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_500' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_500' make_word(text_path_in, word_path_out) def make_word_count_bpe_50_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_50' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_50' make_word(text_path_in, word_path_out) def make_word_count_bpe_1000_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_1000' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_1000' make_word(text_path_in, word_path_out) def make_word_count_english(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt' make_word(text_path_in, word_path_out) def make_word_count_bpe_500_spanish(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/data/train_dim80/text.bpe_500' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/words_s2s.txt.bpe_500' make_word(text_path_in, word_path_out) def make_word_count_bpe_500_ar(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ar/data/train_dim80/text.bpe_500' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ar/words_s2s.txt.bpe_500' make_word(text_path_in, word_path_out) def make_word_count_bpe_500_ge(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ge/data/train_dim80/text.bpe_500' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ge/words_s2s.txt.bpe_500' make_word(text_path_in, word_path_out) def make_word_count_bpe_500_ja(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ja/data/train_dim80/text.bpe_500' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ja/words_s2s.txt.bpe_500' make_word(text_path_in, word_path_out) def make_word_count_bpe_500_ma(): text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ma/data/train_dim80/text.bpe_500' word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ma/words_s2s.txt.bpe_500' make_word(text_path_in, word_path_out) def make_word_count_bpe_5000_5lang(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_5000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_5000' make_word(text_path_in, word_path_out) def make_word_count_bpe_3000_5lang(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_3000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_3000' make_word(text_path_in, word_path_out) def make_word_count_bpe_7000_5lang(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_7000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_7000' make_word(text_path_in, word_path_out) def make_word_count_bpe_9000_5lang(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_9000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_9000' make_word(text_path_in, word_path_out) def make_word_count_bpe_1000_5lang(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_1000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_1000' make_word(text_path_in, word_path_out) def make_word_count_bpe_5000_5lang_lid(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_5000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s_lid.txt.bpe_5000' make_word_multilang(text_path_in, word_path_out) def make_word_count_bpe_7000_6lang_lid(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80/text.bpe_7000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.bpe_7000' make_word_multilang(text_path_in, word_path_out) def make_word_count_bpe_3000_6lang_lid(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80/text.bpe_3000' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.bpe_3000' make_word_multilang(text_path_in, word_path_out) def make_word_count_bpe_12000_swbd_5lang_lid(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80_swbd_callhm_5lang/text.bpe_12000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.swbd_5lang.bpe_12000' make_word_multilang(text_path_in, word_path_out) def make_word_count_bpe_3000_swbd_5lang_lid(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80_swbd_callhm_5lang/text.bpe_3000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.swbd_5lang.bpe_3000' make_word_multilang(text_path_in, word_path_out) def make_word_count_bpe_6lang(): for count in [1000, 3000, 5000, 7000, 9000]: text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80/text.bpe_' + str( count) word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s.txt.bpe_' + str( count) make_word(text_path_in, word_path_out) def make_word_count_bpe_3000_swbd(): text_path_in = '/data/syzhou/work/data/tensor2tensor/SWBD/data/train_dim80/text.bpe_3000' word_path_out = '/data/syzhou/work/data/tensor2tensor/SWBD/words_s2s.txt.bpe_3000' make_word(text_path_in, word_path_out) def make_word_count_bpe_6000_swbd(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_6000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_6000' make_word(text_path_in, word_path_out) def make_word_count_bpe_9000_swbd(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_9000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_9000' make_word(text_path_in, word_path_out) def make_word_count_bpe_12000_swbd(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_12000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_12000' make_word(text_path_in, word_path_out) def make_word_count_bpe_15000_swbd(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_15000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_15000' make_word(text_path_in, word_path_out) def make_word_count_bpe_18000_swbd(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_18000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_18000' make_word(text_path_in, word_path_out) def make_word_count_bpe_21000_swbd(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_21000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_21000' make_word(text_path_in, word_path_out) def make_word_count_bpe_30000_swbd(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_30000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_30000' make_word(text_path_in, word_path_out) def make_word_count_bpe_3000_swbd_callhm_ma_lid(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/data/train_dim80_swbd_callhm_ma/text.bpe_3000.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/words_s2s_lid.txt.swbd_callhm_ma.bpe3k' make_word_ma_en(text_path_in, word_path_out) def make_word_count_bpe_500_swbd_callhm_ma_lid(): text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/data/train_dim80_swbd_callhm_ma/text.bpe_500.sp' word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/words_s2s_lid.txt.swbd_callhm_ma.bpe500' make_word_ma_en(text_path_in, word_path_out) if __name__ == '__main__': # make_word_count() # make_pinyin_count() # make_word_count_dim80() # make_word_count_en() # make_word_count_CALLHOME('ma') # make_word_count_CALLHOME('ja') # make_word_count_CALLHOME('ar') # make_word_count_CALLHOME('ge') # make_word_count_CALLHOME('sp') # make_word_count_CALLHOME('6lang') # make_word_count_bpe_10000() # make_word_count_bpe_5000() # make_word_count_bpe_5000_spanish() # make_word_count_bpe_5000_english() # make_word_count_bpe_3000_english() # make_word_count_bpe_2000_english() # make_word_count_bpe_100_english() # make_word_count_bpe_500_english() # make_word_count_bpe_50_english() # make_word_count_bpe_1000_english() # make_word_count_english() # make_word_count_bpe_500_spanish() # make_word_count_bpe_500_ar() # make_word_count_bpe_500_ge() # make_word_count_bpe_500_ja() # make_word_count_bpe_5000_5lang() # make_word_count_bpe_3000_5lang() # make_word_count_bpe_7000_5lang() # make_word_count_bpe_9000_5lang() # make_word_count_bpe_1000_5lang() # make_word_count_bpe_5000_5lang() # make_word_count_bpe_5000_5lang_lid() # make_word_count_bpe_6lang() # make_word_count_bpe_7000_6lang_lid() # make_word_count_bpe_3000_6lang_lid() # make_word_count_bpe_3000_swbd() # make_word_count_bpe_6000_swbd() # make_word_count_bpe_9000_swbd() # make_word_count_bpe_12000_swbd() # make_word_count_bpe_15000_swbd() # make_word_count_bpe_18000_swbd() # make_word_count_bpe_21000_swbd() # make_word_count_bpe_30000_swbd() # make_word_count_bpe_12000_swbd_5lang_lid() # make_word_count_bpe_3000_swbd_5lang_lid() # make_word_count_bpe_3000_swbd_callhm_ma_lid() # make_word_count_bpe_500_swbd_callhm_ma_lid() # make_word_count_thchs30() make_word_count_aishell2() print '' # from ctypes import cdll # # cdll.LoadLibrary('/usr/local/cuda/lib64/libcudnn.so.6') # import os # # os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID" # # os.environ["CUDA_VISIBLE_DEVICES"] = "0" # os.environ["CUDA_VISIBLE_DEVICES"] = "4" # # parser = ArgumentParser() # parser.add_argument('-c', '--config', dest='config') # args = parser.parse_args() # # Read config # args.config = '/data/syzhou/work/data/tensor2tensor/transformer/config_template.yaml' # config = AttrDict(yaml.load(open(args.config))) # logging.basicConfig(level=logging.INFO) # if os.path.exists(config.src_vocab): # logging.info('Source vocab already exists at {}'.format(config.src_vocab)) # else: # make_vocab(config.train.src_path, config.src_vocab) # if os.path.exists(config.dst_vocab): # logging.info('Destination vocab already exists at {}'.format(config.dst_vocab)) # else: # make_vocab(config.train.dst_path, config.dst_vocab) # logging.info("Done")
43.793103
144
0.742864
3,100
20,320
4.473871
0.059355
0.079602
0.085298
0.083063
0.919389
0.901291
0.849665
0.838345
0.827241
0.814262
0
0.073499
0.137598
20,320
463
145
43.887689
0.71793
0.120915
0
0.40625
0
0.273438
0.477877
0.459148
0
0
0
0
0
0
null
null
0
0.027344
null
null
0.003906
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
1
null
0
0
0
0
1
0
0
0
0
0
0
0
0
9
7b34b8cd517ebb5d191125efc53a354bcdedbc75
156
py
Python
cart/admin.py
dharmikpopat/cohinza
fb8cbc8d34758687d72f120537dce5755c71d110
[ "MIT" ]
null
null
null
cart/admin.py
dharmikpopat/cohinza
fb8cbc8d34758687d72f120537dce5755c71d110
[ "MIT" ]
null
null
null
cart/admin.py
dharmikpopat/cohinza
fb8cbc8d34758687d72f120537dce5755c71d110
[ "MIT" ]
null
null
null
from django.contrib import admin from .models import Cart, CartItem, CartAdmin admin.site.register(Cart, CartAdmin) admin.site.register(CartItem)
19.5
46
0.769231
20
156
6
0.55
0.233333
0.3
0.433333
0
0
0
0
0
0
0
0
0.147436
156
7
47
22.285714
0.902256
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
0.5
0
0.5
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
0
0
0
7
7b546583f1d1067292507731efffc041351f3cd1
18,514
py
Python
pretrain_src/data/image_tasks.py
cshizhe/VLN-HAMT
08918ddcea7b7822831a5b535038732f8dfeab23
[ "MIT" ]
33
2021-11-12T14:45:21.000Z
2022-03-31T13:01:02.000Z
pretrain_src/data/image_tasks.py
biubiuisacat/VLN-HAMT
08918ddcea7b7822831a5b535038732f8dfeab23
[ "MIT" ]
5
2022-01-12T03:58:28.000Z
2022-03-16T01:25:21.000Z
pretrain_src/data/image_tasks.py
biubiuisacat/VLN-HAMT
08918ddcea7b7822831a5b535038732f8dfeab23
[ "MIT" ]
5
2021-11-15T06:06:05.000Z
2022-03-10T02:35:06.000Z
import random import numpy as np import torch from torch.nn.utils.rnn import pad_sequence from .data import pad_tensors, gen_seq_masks from .mlm import random_word, MlmDataset from .mrc import _get_img_mask, MrcDataset from .sap import SapDataset from .sar import SarDataset from .sprel import SprelDataset from .itm import ItmDataset class MlmImageDataset(MlmDataset): def __getitem__(self, i): i_traj, j_instr, path_len = self.nav_db.traj_refer[i] inputs = self.nav_db.get_input( i_traj, j_instr, path_len, return_ob=False, return_ob_action=False, return_hist_img_probs=False, return_ob_progress=False, ) output = {} # prepare text tensor txt_ids, txt_labels = random_word( inputs["instr_encoding"], self.vocab_range, self.mask_token_id ) output["txt_ids"] = torch.LongTensor(txt_ids) output["txt_labels"] = torch.LongTensor(txt_labels) output["txt_lens"] = output["txt_ids"].size(0) # prepare history tensor output["hist_images"] = inputs["hist_images"] output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"]) output["hist_pano_images"] = inputs["hist_pano_images"] output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"]) output["hist_lens"] = inputs["hist_lens"] return output def mlm_image_collate(inputs): batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()} # text batches batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0) batch["txt_labels"] = pad_sequence( batch["txt_labels"], batch_first=True, padding_value=-1 ) batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"])) batch["txt_lens"] = torch.LongTensor(batch["txt_lens"]) # history batches batch["hist_images"] = pad_tensors( batch["hist_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_ang_fts"] = pad_tensors( batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_images"] = pad_tensors( batch["hist_pano_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_ang_fts"] = pad_tensors( batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"])) batch["hist_lens"] = torch.LongTensor(batch["hist_lens"]) return batch class MrcImageDataset(MrcDataset): def __getitem__(self, i): i_traj, j_instr, path_len = self.nav_db.traj_refer[i] inputs = self.nav_db.get_input( i_traj, j_instr, path_len, return_ob=False, return_ob_action=False, return_hist_img_probs=True, return_ob_progress=False, ) output = {} # prepare text tensor txt_ids = inputs["instr_encoding"] output["txt_ids"] = torch.LongTensor(txt_ids) output["txt_lens"] = output["txt_ids"].size(0) # prepare history tensor: masked history image hist_mrc_masks = _get_img_mask( self.mask_prob, inputs["hist_img_probs"].shape[0] ) # (T, ) # masked the feature after backbone (not now) output["hist_images"] = inputs["hist_images"] output["hist_pano_images"] = inputs["hist_pano_images"] output["hist_img_probs"] = torch.from_numpy(inputs["hist_img_probs"]) output["hist_mrc_masks"] = hist_mrc_masks output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"]) output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"]) output["hist_lens"] = inputs["hist_lens"] return output def mrc_image_collate(inputs): batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()} # text batches batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0) batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"])) batch["txt_lens"] = torch.LongTensor(batch["txt_lens"]) # history batches batch["hist_images"] = pad_tensors( batch["hist_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_ang_fts"] = pad_tensors( batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_images"] = pad_tensors( batch["hist_pano_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_ang_fts"] = pad_tensors( batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0 ) # labels batch["hist_mrc_masks"] = pad_sequence( batch["hist_mrc_masks"], batch_first=True, padding_value=0 ) batch["hist_img_probs"] = pad_tensors( batch["hist_img_probs"], lens=batch["hist_lens"], pad=0 ) batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"])) batch["hist_lens"] = torch.LongTensor(batch["hist_lens"]) return batch class SapImageDataset(SapDataset): def __getitem__(self, i): i_traj, j_instr, t_cur = self.nav_db.traj_step_refer[i] inputs = self.nav_db.get_input( i_traj, j_instr, t_cur, return_ob=True, return_ob_action=True, return_hist_img_probs=False, return_ob_progress=False, ) output = {} # prepare text tensor txt_ids = inputs["instr_encoding"] output["txt_ids"] = torch.LongTensor(txt_ids) output["txt_lens"] = output["txt_ids"].size(0) # prepare vision tensor output["ob_images"] = inputs["ob_images"] v_exists = True if random.random() < self.random_kill_v: output["ob_images"][...] = 0 v_exists = False output["ob_v_exists"] = v_exists output["ob_ang_fts"] = torch.from_numpy(inputs["ob_ang_fts"]) if v_exists and random.random() < self.random_kill_a: output["ob_ang_fts"][...] = 0 output["ob_nav_types"] = torch.LongTensor(inputs["ob_nav_types"]) output["ob_lens"] = output["ob_images"].size(0) + 1 # STOP # prepare action output["ob_action_viewindex"] = inputs["ob_action_viewindex"] # prepare history tensor output["hist_images"] = inputs["hist_images"] output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"]) output["hist_pano_images"] = inputs["hist_pano_images"] output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"]) output["hist_lens"] = inputs["hist_lens"] return output def sap_image_collate(inputs): batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()} # text batches batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0) batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"])) batch["txt_lens"] = torch.LongTensor(batch["txt_lens"]) # image batches batch["ob_images"] = pad_tensors( batch["ob_images"], lens=[x - 1 for x in batch["ob_lens"]], pad=0 ) batch["ob_v_exists"] = torch.BoolTensor(batch["ob_v_exists"]) batch["ob_ang_fts"] = pad_tensors(batch["ob_ang_fts"], lens=batch["ob_lens"], pad=0) batch["ob_nav_types"] = pad_sequence( batch["ob_nav_types"], batch_first=True, padding_value=0 ) batch["ob_masks"] = torch.BoolTensor(gen_seq_masks(batch["ob_lens"])) batch["ob_lens"] = torch.LongTensor(batch["ob_lens"]) # history batches if max(batch["hist_lens"]) == 0: # all are in first step batch["hist_images"] = None batch["hist_anages"] = None batch["hist_pano_images"] = None batch["hist_pano_ang_fts"] = None else: batch["hist_images"] = pad_tensors( batch["hist_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_ang_fts"] = pad_tensors( batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_images"] = pad_tensors( batch["hist_pano_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_ang_fts"] = pad_tensors( batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"])) batch["hist_lens"] = torch.LongTensor(batch["hist_lens"]) # action batches batch["ob_action_viewindex"] = torch.LongTensor(batch["ob_action_viewindex"]) return batch class SarImageDataset(SarDataset): def __getitem__(self, i): i_traj, j_instr, t_cur = self.nav_db.traj_step_refer[i] inputs = self.nav_db.get_input( i_traj, j_instr, t_cur, return_ob=True, return_ob_action=True, return_hist_img_probs=False, return_ob_progress=True, ) output = {} # prepare text tensor txt_ids = inputs["instr_encoding"] output["txt_ids"] = torch.LongTensor(txt_ids) output["txt_lens"] = output["txt_ids"].size(0) # prepare vision tensor output["ob_images"] = inputs["ob_images"] v_exists = True if random.random() < self.random_kill_v: output["ob_images"][...] = 0 v_exists = False output["ob_v_exists"] = v_exists output["ob_ang_fts"] = torch.from_numpy(inputs["ob_ang_fts"]) if v_exists and random.random() < self.random_kill_a: output["ob_ang_fts"][...] = 0 output["ob_nav_types"] = torch.LongTensor(inputs["ob_nav_types"]) output["ob_lens"] = output["ob_images"].size(0) + 1 # STOP # prepare action output["ob_action_angles"] = self._standardize_radians( inputs["ob_action_angles"] ) output["ob_progress"] = inputs["ob_progress"] # prepare history tensor output["hist_images"] = inputs["hist_images"] output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"]) output["hist_pano_images"] = inputs["hist_pano_images"] output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"]) output["hist_lens"] = inputs["hist_lens"] return output def sar_image_collate(inputs): batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()} # text batches batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0) batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"])) batch["txt_lens"] = torch.LongTensor(batch["txt_lens"]) # image batches batch["ob_images"] = pad_tensors( batch["ob_images"], lens=[x - 1 for x in batch["ob_lens"]], pad=0 ) batch["ob_v_exists"] = torch.BoolTensor(batch["ob_v_exists"]) batch["ob_ang_fts"] = pad_tensors(batch["ob_ang_fts"], lens=batch["ob_lens"], pad=0) batch["ob_nav_types"] = pad_sequence( batch["ob_nav_types"], batch_first=True, padding_value=0 ) batch["ob_masks"] = torch.BoolTensor(gen_seq_masks(batch["ob_lens"])) batch["ob_lens"] = torch.LongTensor(batch["ob_lens"]) # history batches if max(batch["hist_lens"]) == 0: # all are in first step batch["hist_images"] = None batch["hist_anages"] = None batch["hist_pano_images"] = None batch["hist_pano_ang_fts"] = None else: batch["hist_images"] = pad_tensors( batch["hist_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_ang_fts"] = pad_tensors( batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_images"] = pad_tensors( batch["hist_pano_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_ang_fts"] = pad_tensors( batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"])) batch["hist_lens"] = torch.LongTensor(batch["hist_lens"]) # action batches batch["ob_action_angles"] = torch.FloatTensor(batch["ob_action_angles"]) batch["ob_progress"] = torch.FloatTensor(batch["ob_progress"]) return batch class SprelImageDataset(SprelDataset): def __getitem__(self, i): i_traj, j_instr, t_cur = self.nav_db.traj_step_refer[i] inputs = self.nav_db.get_input( i_traj, j_instr, t_cur, return_ob=True, return_ob_action=False, return_hist_img_probs=False, return_ob_progress=False, ) output = {} # prepare text tensor txt_ids = inputs["instr_encoding"] output["txt_ids"] = torch.LongTensor(txt_ids) output["txt_lens"] = output["txt_ids"].size(0) # prepare vision tensor output["ob_images"] = inputs["ob_images"] v_exists = True if random.random() < self.random_kill_v: output["ob_images"][...] = 0 v_exists = False output["ob_v_exists"] = v_exists output["ob_ang_fts"] = torch.from_numpy(inputs["ob_ang_fts"]) if v_exists and random.random() < self.random_kill_a: output["ob_ang_fts"][...] = 0 output["ob_nav_types"] = torch.LongTensor(inputs["ob_nav_types"]) output["ob_lens"] = output["ob_images"].size(0) + 1 # STOP # prepare history tensor output["hist_images"] = inputs["hist_images"] output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"]) output["hist_pano_images"] = inputs["hist_pano_images"] output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"]) output["hist_lens"] = inputs["hist_lens"] # prepare labels sp_anchor_idx = np.random.randint(36) # select a view as anchor output["sp_anchor_idxs"] = sp_anchor_idx output["sp_targets"] = self.sp_targets[sp_anchor_idx] return output def sprel_image_collate(inputs): batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()} # text batches batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0) batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"])) batch["txt_lens"] = torch.LongTensor(batch["txt_lens"]) # image batches batch["ob_images"] = pad_tensors( batch["ob_images"], lens=[x - 1 for x in batch["ob_lens"]], pad=0 ) batch["ob_v_exists"] = torch.BoolTensor(batch["ob_v_exists"]) batch["ob_ang_fts"] = pad_tensors(batch["ob_ang_fts"], lens=batch["ob_lens"], pad=0) batch["ob_nav_types"] = pad_sequence( batch["ob_nav_types"], batch_first=True, padding_value=0 ) batch["ob_masks"] = torch.BoolTensor(gen_seq_masks(batch["ob_lens"])) batch["ob_lens"] = torch.LongTensor(batch["ob_lens"]) # history batches if max(batch["hist_lens"]) == 0: # all are in first step batch["hist_images"] = None batch["hist_ang_fts"] = None batch["hist_pano_images"] = None batch["hist_pano_ang_fts"] = None else: batch["hist_images"] = pad_tensors( batch["hist_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_ang_fts"] = pad_tensors( batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_images"] = pad_tensors( batch["hist_pano_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_ang_fts"] = pad_tensors( batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"])) batch["hist_lens"] = torch.LongTensor(batch["hist_lens"]) # action batches batch["sp_anchor_idxs"] = torch.LongTensor(batch["sp_anchor_idxs"]) batch["sp_targets"] = torch.FloatTensor(batch["sp_targets"]) return batch class ItmImageDataset(ItmDataset): def __getitem__(self, i): i_traj, j_instr, path_len = self.nav_db.traj_refer[i] inputs = self.nav_db.get_input( i_traj, j_instr, path_len, return_ob=False, return_ob_action=False, return_hist_img_probs=False, return_ob_progress=False, ) output = {} # prepare text tensor txt_ids = inputs["instr_encoding"] output["txt_ids"] = torch.LongTensor(txt_ids) output["txt_lens"] = output["txt_ids"].size(0) # prepare history tensor output["hist_images"] = inputs["hist_images"] output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"]) output["hist_pano_images"] = inputs["hist_pano_images"] output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"]) output["hist_lens"] = inputs["hist_lens"] return output def itm_image_collate(inputs): batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()} # text batches batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0) batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"])) batch["txt_lens"] = torch.LongTensor(batch["txt_lens"]) # history batches batch["hist_images"] = pad_tensors( batch["hist_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_ang_fts"] = pad_tensors( batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_images"] = pad_tensors( batch["hist_pano_images"], lens=batch["hist_lens"], pad=0 ) batch["hist_pano_ang_fts"] = pad_tensors( batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0 ) batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"])) batch["hist_lens"] = torch.LongTensor(batch["hist_lens"]) return batch
36.373281
88
0.628281
2,506
18,514
4.309258
0.055866
0.106677
0.069821
0.048801
0.873599
0.868969
0.868969
0.866006
0.863043
0.859154
0
0.005699
0.232365
18,514
508
89
36.444882
0.754151
0.050718
0
0.755263
0
0
0.216927
0
0
0
0
0
0
1
0.031579
false
0
0.028947
0
0.107895
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
7b59b155b83b33263012d99c2cb4e69a10383129
9,678
py
Python
alphafy.py
knowminni/emojify
1d8445029f578f2032d443c99982e47b0e5e7807
[ "Apache-2.0" ]
null
null
null
alphafy.py
knowminni/emojify
1d8445029f578f2032d443c99982e47b0e5e7807
[ "Apache-2.0" ]
null
null
null
alphafy.py
knowminni/emojify
1d8445029f578f2032d443c99982e47b0e5e7807
[ "Apache-2.0" ]
null
null
null
import emoji def A(text): res = '' for row in range(0,7): for col in range(0,7): if (((col == 1 or col == 4) and row != 0) or ((row == 0 or row == 3) and (col > 1 and col < 5))): res = res + text else: res = res + ' ' res = res + '\n' return res def B(text): res = '' for row in range(0, 7): for col in range(0, 7): if (col == 1 or ((row == 0 or row == 3 or row == 6) and (col < 5 and col > 1)) or (col == 5 and (row != 0 and row != 3 and row != 6))): res = res + text else: res=res + ' ' res=res + '\n' return res def C(text): res = '' for row in range(0, 7): for col in range(0, 7): if ((col == 1 and (row != 0 and row != 6)) or ((row == 0 or row == 6) and (col > 1 and col < 5)) or (col == 5 and (row == 1 or row == 5))): res = res + text else: res = res + ' ' res = res + '\n' return res def D(text): res = '' for row in range(0, 7): for column in range(0, 7): if (column == 1 or ((row == 0 or row == 6) and (column > 1 and column < 5)) or (column == 5 and row != 0 and row != 6)): res = res + text else: res = res + ' ' res = res + '\n' return res def E(text): res = '' for row in range(0, 7): for col in range(0, 7): if (col == 1 or ((row == 0 or row == 6) and (col > 1 and col < 6)) or (row == 3 and col > 1 and col < 5)): res = res + text else: res = res + ' ' res = res + '\n' return res def F(text): res = '' for row in range(0, 7): for col in range(0, 7): if (col == 1 or (row == 0 and col > 1 and col < 6) or (row == 3 and col > 1 and col < 5)): res = res + text else: res = res + ' ' res = res + '\n' return res def G(text): res = '' for row in range(0,7): for col in range(0,7): if ((col == 1 and row != 0 and row != 6) or ((row == 0 or row == 6) and col > 1 and col < 5) or (row == 3 and col > 2 and col < 6) or (col == 5 and row != 0 and row != 2 and row != 6)): res = res + text else: res = res + ' ' res = res + '\n' return res def H(text): res = '' for row in range(0, 7): for col in range(0, 7): if ((col == 1 or col == 5) or (row == 3 and col > 1 and col < 6)): res = res + text else: res = res + ' ' res = res + '\n' return res def I(text): res = '' for row in range(0, 7): for col in range(0, 7): if (col == 3 or (row == 0 and col > 0 and col < 6) or (row == 6 and col > 0 and col < 6)): res = res + text else: res = res + ' ' res = res + '\n' return res def J(text): res = '' for row in range(0,7): for col in range(0,7): if ((col == 4 and row != 6) or (row == 0 and col > 2 and col < 6) or (row == 6 and col == 3) or (row == 5 and col == 2)): res = res + text else: res = res + ' ' res = res + '\n' return res def K(text): res = '' i, j = 0, 5 for row in range(0,7): for col in range(0,7): if (col == 1 or ((row == col + 1) and col != 0)): res = res + text elif (row == i and col == j): res = res + text i = i + 1 j = j - 1 else: res = res + ' ' res = res + '\n' return res def L(text): res = '' for row in range(0,7): for col in range(0,7): if (col == 1 or (row == 6 and col != 0 and col < 6)): res = res + text else: res = res + ' ' res = res + '\n' return res def M(text): res = '' for row in range(0, 7): for col in range(0, 7): if (col == 1 or col == 5 or (row == 2 and (col == 2 or col == 4)) or (row == 3 and col == 3)): res = res + text else: res = res + ' ' res = res + '\n' return res def N(text): res = '' for row in range(0,7): for col in range(0,7): if (col == 1 or col == 5 or (row == col and col != 0 and col != 6)): res = res + text else: res = res + ' ' res = res + '\n' return res def O(text): res = '' for row in range(0,7): for col in range(0,7): if (((col == 1 or col == 5) and row != 0 and row != 6) or ((row == 0 or row == 6) and col > 1 and col < 5)): res = res + text else: res = res + ' ' res = res + '\n' return res def P(text): res = '' for row in range(0,7): for col in range(0,7): if (col == 1 or ((row == 0 or row == 3) and col > 0 and col < 5) or ((col == 5 or col == 1) and (row == 1 or row == 2))): res = res + text else: res = res + ' ' res = res + '\n' return res def Q(text): res = '' for row in range(0,7): for col in range(0,7): if ((col == 1 and row != 0 and row != 6) or (row == 0 and col > 1 and col < 5) or (col == 5 and row != 0 and row != 5) or (row == 6 and col > 1 and col < 4) or (col == row - 1 and row > 3)): res = res + text else: res = res + ' ' res = res + '\n' return res return res def R(text): res = '' for row in range(0,7): for col in range(0,7): if (col == 1 or ((row == 0 or row == 3) and col > 1 and col < 5) or (col == 5 and row != 0 and row < 3) or (col == row - 1 and row > 2)): res = res + text else: res = res + ' ' res = res + '\n' return res def S(text): res = '' for row in range(0,7): for col in range(0,7): if(((row == 0 or row == 3 or row == 6) and col > 1 and col < 5) or (col == 1 and (row == 1 or row == 2 or row == 6)) or (col == 5 and (row == 0 or row == 4 or row == 5))): res = res + text else: res = res + ' ' res = res + '\n' return res def T(text): res = '' for row in range(0,7): for col in range(0,7): if (col == 3 or (row == 0 and col > 0 and col < 6)): res = res + text else: res = res + ' ' res = res + '\n' return res def U(text): res = '' for row in range(0,7): for col in range(0,7): if (((col == 1 or col == 5) and row != 6) or (row == 6 and col > 1 and col < 5)): res = res + text else: res = res + ' ' res = res + '\n' return res def V(text): res = '' for row in range(0,7): for col in range(0,7): if(((col == 1 or col == 5) and row < 5) or (row == 6 and col == 3) or (row == 5 and (col == 2 or col == 4))): res = res + text else: res = res + ' ' res = res + '\n' return res def W(text): res = '' for row in range(0,7): for col in range(0,7): if (((col == 1 or col == 5) and row < 6) or ((row == 5 or row == 4) and col == 3) or (row == 6 and (col == 2 or col == 4))): res = res + text else: res = res + ' ' res = res + '\n' return res def X(text): res = '' for row in range(0,7): for col in range(0,7): if (((col == 1 or col == 5) and (row > 4 or row < 2)) or row == col and col > 0 and col < 6 or (col == 2 and row == 4) or (col == 4 and row == 2)): res = res + text else: res = res + ' ' res = res + '\n' return res def Y(text): res = '' for row in range(0,7): for col in range(0,7): if (((col == 1 or col == 5) and row < 2) or row == col and col > 0 and col < 4 or (col == 4 and row == 2) or ((col == 3) and row > 3)): res = res + text else: res = res + ' ' res = res + '\n' return res def Z(text): res = '' for row in range(0,7): for col in range(0,7): if (((row == 0 or row == 6) and col >= 0 and col <= 7) or row + col==7): res = res + text else: res = res + ' ' res = res + '\n' return res
25.603175
202
0.357099
1,362
9,678
2.537445
0.037445
0.182292
0.12037
0.135417
0.944734
0.928819
0.91522
0.896701
0.866609
0.849248
0
0.065971
0.505063
9,678
377
203
25.671088
0.655532
0
0
0.730769
0
0
0.011182
0
0
0
0
0
0
1
0.090909
false
0
0.003497
0
0.188811
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
1
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
7b64b4d930a72736a55f596e1707c596c03f85c0
5,688
py
Python
dfirtrack_main/tests/casestatus/test_casestatus_views.py
thomas-kropeit/dfirtrack
b1e0e659af7bc8085cfe2d269ddc651f9f4ba585
[ "Apache-2.0" ]
273
2018-04-18T22:09:15.000Z
2021-06-04T09:15:48.000Z
dfirtrack_main/tests/casestatus/test_casestatus_views.py
stuhli/dfirtrack
9260c91e4367b36d4cb1ae7efe4e2d2452f58e6e
[ "Apache-2.0" ]
75
2018-08-31T11:05:37.000Z
2021-06-08T14:15:07.000Z
dfirtrack_main/tests/casestatus/test_casestatus_views.py
thomas-kropeit/dfirtrack
b1e0e659af7bc8085cfe2d269ddc651f9f4ba585
[ "Apache-2.0" ]
61
2018-11-12T22:55:48.000Z
2021-06-06T15:16:16.000Z
import urllib.parse from django.contrib.auth.models import User from django.test import TestCase from dfirtrack_main.models import Casestatus class CasestatusViewTestCase(TestCase): """casestatus view tests""" @classmethod def setUpTestData(cls): # create object Casestatus.objects.create(casestatus_name='casestatus_1') # create user User.objects.create_user( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) def test_casestatus_list_not_logged_in(self): """test list view""" # create url destination = '/login/?next=' + urllib.parse.quote('/casestatus/', safe='') # get response response = self.client.get('/casestatus/', follow=True) # compare self.assertRedirects( response, destination, status_code=302, target_status_code=200 ) def test_casestatus_list_logged_in(self): """test list view""" # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # get response response = self.client.get('/casestatus/') # compare self.assertEqual(response.status_code, 200) def test_casestatus_list_template(self): """test list view""" # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # get response response = self.client.get('/casestatus/') # compare self.assertTemplateUsed( response, 'dfirtrack_main/casestatus/casestatus_list.html' ) def test_casestatus_list_get_user_context(self): """test list view""" # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # get response response = self.client.get('/casestatus/') # compare self.assertEqual(str(response.context['user']), 'testuser_casestatus') def test_casestatus_list_redirect(self): """test list view""" # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # create url destination = urllib.parse.quote('/casestatus/', safe='/') # get response response = self.client.get('/casestatus', follow=True) # compare self.assertRedirects( response, destination, status_code=301, target_status_code=200 ) def test_casestatus_detail_not_logged_in(self): """test detail view""" # get object casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1') # create url destination = '/login/?next=' + urllib.parse.quote( '/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/', safe='' ) # get response response = self.client.get( '/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/', follow=True ) # compare self.assertRedirects( response, destination, status_code=302, target_status_code=200 ) def test_casestatus_detail_logged_in(self): """test detail view""" # get object casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1') # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # get response response = self.client.get( '/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/' ) # compare self.assertEqual(response.status_code, 200) def test_casestatus_detail_template(self): """test detail view""" # get object casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1') # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # get response response = self.client.get( '/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/' ) # compare self.assertTemplateUsed( response, 'dfirtrack_main/casestatus/casestatus_detail.html' ) def test_casestatus_detail_get_user_context(self): """test detail view""" # get object casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1') # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # get response response = self.client.get( '/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/' ) # compare self.assertEqual(str(response.context['user']), 'testuser_casestatus') def test_casestatus_detail_redirect(self): """test list view""" # get object casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1') # login testuser self.client.login( username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1' ) # create url destination = urllib.parse.quote( '/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/', safe='/' ) # get response response = self.client.get( '/casestatus/detail/' + str(casestatus_1.casestatus_id), follow=True ) # compare self.assertRedirects( response, destination, status_code=301, target_status_code=200 )
32.135593
86
0.614803
542
5,688
6.263838
0.118081
0.058321
0.074227
0.067747
0.889838
0.846539
0.837113
0.83299
0.789691
0.772607
0
0.018288
0.279008
5,688
176
87
32.318182
0.809559
0.111639
0
0.47
0
0
0.163944
0.018955
0
0
0
0
0.1
1
0.11
false
0.09
0.04
0
0.16
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
1
0
0
0
0
0
7
7b964306ad533eeb2e581480218a53b894bb45af
81
py
Python
mellon/factories/web_crawler/__init__.py
LaudateCorpus1/mellon
a7a9f6d8abf1dd03b63a94ddb4439c6cc6c2e272
[ "MIT" ]
5
2016-12-20T19:39:01.000Z
2021-01-08T16:19:17.000Z
mellon/factories/web_crawler/__init__.py
CrowdStrike/mellon
7216f255d397a41b1c2777a1b02f1c085d07ddfe
[ "MIT" ]
1
2018-03-21T17:05:13.000Z
2018-03-21T17:05:13.000Z
mellon/factories/web_crawler/__init__.py
LaudateCorpus1/mellon
a7a9f6d8abf1dd03b63a94ddb4439c6cc6c2e272
[ "MIT" ]
2
2017-11-01T15:03:27.000Z
2018-11-13T03:04:44.000Z
from .interfaces import IScrapyHttpResponse from .interfaces import IScrapySpider
40.5
43
0.888889
8
81
9
0.625
0.388889
0.555556
0
0
0
0
0
0
0
0
0
0.08642
81
2
44
40.5
0.972973
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
7b9a6f327c591be95939b6d0b1038142e2323c0c
108
py
Python
pythonCore/ch05/E09.py
Furzoom/learnpython
a3034584e481d4e7c55912d9da06439688aa67ea
[ "MIT" ]
null
null
null
pythonCore/ch05/E09.py
Furzoom/learnpython
a3034584e481d4e7c55912d9da06439688aa67ea
[ "MIT" ]
null
null
null
pythonCore/ch05/E09.py
Furzoom/learnpython
a3034584e481d4e7c55912d9da06439688aa67ea
[ "MIT" ]
null
null
null
#!/usr/bin/env python # -*- coding: utf-8 -*- print 17 + 32 print 017 + 32 print 017 + 032 print 56l + 78l
13.5
23
0.611111
19
108
3.473684
0.736842
0.212121
0.30303
0
0
0
0
0
0
0
0
0.238095
0.222222
108
8
24
13.5
0.547619
0.388889
0
0
0
0
0
0
0
0
0
0
0
0
null
null
0
0
null
null
1
1
0
0
null
1
1
0
0
0
0
0
0
0
0
1
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
1
0
7
7bc80702045714c9bad9a2090117d645bff3148d
126
py
Python
envs/d4rl/d4rl_content/gym_minigrid/envs/__init__.py
AliengirlLiv/babyai
51421ee11538bf110c5b2d0c84a15f783d854e7d
[ "MIT" ]
2
2022-02-24T08:47:48.000Z
2022-03-23T09:44:22.000Z
envs/d4rl/d4rl_content/gym_minigrid/envs/__init__.py
AliengirlLiv/babyai
51421ee11538bf110c5b2d0c84a15f783d854e7d
[ "MIT" ]
null
null
null
envs/d4rl/d4rl_content/gym_minigrid/envs/__init__.py
AliengirlLiv/babyai
51421ee11538bf110c5b2d0c84a15f783d854e7d
[ "MIT" ]
1
2021-12-27T19:03:38.000Z
2021-12-27T19:03:38.000Z
from envs.d4rl.d4rl_content.gym_minigrid.envs.fourrooms import * from envs.d4rl.d4rl_content.gym_minigrid.envs.empty import *
42
64
0.84127
20
126
5.1
0.45
0.156863
0.235294
0.313725
0.745098
0.745098
0.745098
0.745098
0
0
0
0.033898
0.063492
126
2
65
63
0.830508
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
0
1
1
0
1
1
1
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
10
c878d03db9944ff0dbc0462a16c223b35b854122
17,437
py
Python
gf256.py
samrussell/rcode
0d1a67854c726927004f8df893faef58f0f1c5bc
[ "0BSD" ]
1
2015-03-06T04:04:26.000Z
2015-03-06T04:04:26.000Z
gf256.py
samrussell/rcode
0d1a67854c726927004f8df893faef58f0f1c5bc
[ "0BSD" ]
null
null
null
gf256.py
samrussell/rcode
0d1a67854c726927004f8df893faef58f0f1c5bc
[ "0BSD" ]
null
null
null
#!/usr/bin/python import math import pprint import numpy import random import os import json import struct import time def makegaloisfield(fieldsize, generator): # generate tables #generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011 #fieldsize = 256 table = [[0 for y in xrange(fieldsize)] for x in xrange(fieldsize)] for a in xrange(fieldsize): # break up a into its parts x = 0 tempa = a parts = [] while tempa != 0: if tempa & 1: # add bit to parts parts.append(x) x = x + 1 tempa = tempa >> 1 #print "number %d" % a #print parts for b in xrange(fieldsize): if a==0 or b==0: table[a][b] = 0 continue # shift b by everything in parts shifts = [b << x for x in parts] # reduce list product = reduce(lambda x, y:x^y, shifts) # now divide modulo generator # loop while the product is longer (bitwise) than the generator while int(math.log(product, 2)) >= int(math.log(generator, 2)): generatorlen = int(math.log(generator, 2)) productlen = int(math.log(product, 2)) shift = productlen - generatorlen shiftedgenerator = generator << shift # xor shifted generator against product product = product ^ (generator << shift) # product is what we want, put into matrix table[a][b] = product inverses = [0 for x in xrange(fieldsize)] for a in xrange(fieldsize): if a == 0: continue inverse = [x for x, y in enumerate(table[a]) if y == 1] if len(inverse) != 1: raise Exception("inverse of %d is %s?!" % (a, inverse)) inverses[a] = inverse[0] return {"table" : table, "inverses" : inverses} class GF256: def __init__(self): self.generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011 self.fieldsize = 256 gf = makegaloisfield(self.fieldsize, self.generator) self.table = gf["table"] self.inverses = gf["inverses"] def __init__(self, data): self.generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011 self.fieldsize = 256 gf = json.loads(data) self.table = gf["table"] self.inverses = gf["inverses"] class GFnum: def __init__(self, num, gf): self.num = num self.gf = gf def __add__(self, other): if isinstance(other, GFnum): other = other.num return GFnum(self.num ^ other, self.gf) def __sub__(self, other): if isinstance(other, GFnum): other = other.num return GFnum(self.num ^ other, self.gf) def __mul__(self, other): if isinstance(other, GFnum): other = other.num return GFnum(self.gf.table[self.num][other], self.gf) def __div__(self, other): if isinstance(other, GFnum): other = other.num otherinverse = self.gf.inverses[other] return GFnum(self.gf.table[self.num][otherinverse], self.gf) def __repr__(self): return str(self.num) def make2dgf(a, gf): return [[GFnum(ord(y) if isinstance(y, str) else int(y), gf) for y in x] for x in a] def eliminate(rows, gf): # rows is a list of vectors in numpy.matrix # start at the top for i in xrange(len(rows)): # print everything so we know what's happening #print "About to work with row %d" % i #print rows # find the rows that have leading zeros candidaterows = set([x for x, y in enumerate(rows)]) for index, row in enumerate(rows): for x in xrange(i): if int(row.item(x).num) != 0: candidaterows.remove(index) break # find a row where there's something in column i goodrows = [x for x in candidaterows if rows[x].item(i).num != 0] if goodrows == None: # this means we fail encoding, should throw a fit i guess raise Exception("Couldn't decode coefficient %d" % i) # start with the highest column and baleet from all the others rownum = goodrows[0] #print "using row %d" % rownum row = rownum # divide first item so it's 1 (multiply by inverse) value = rows[rownum].item(i) inverse = gf.inverses[value.num] #print "inverse is %d" % inverse rows[rownum] = rows[rownum] * inverse # subtract this row from all other rows for delnum in xrange(len(rows)): if delnum != rownum: # find the value of the item at that column delvalue = rows[delnum].item(i) # multiply to clear it out eliminator = rows[rownum] * delvalue rows[delnum] = rows[delnum] - eliminator #print "decoding, rows:" #print rows return rows # this should live inside Decoder i guess def eliminatev2(rows, gf): # rows is a list of vectors in numpy.matrix # start at the top for i in xrange(len(rows)): # print everything so we know what's happening #print "About to work with row %d" % i #print rows # find the rows that have leading zeros print "Working with row %d" % (i+1) candidaterows = set([x for x, y in enumerate(rows)]) for index, row in enumerate(rows): for x in xrange(i): if int(row[x].num) != 0: candidaterows.remove(index) break # find a row where there's something in column i goodrows = [x for x in candidaterows if rows[x][i].num != 0] if goodrows == None: # this means we fail encoding, should throw a fit i guess raise Exception("Couldn't decode coefficient %d" % i) # start with the highest column and baleet from all the others rownum = goodrows[0] #print "using row %d" % rownum row = rownum # divide first item so it's 1 (multiply by inverse) value = rows[rownum][i] inverse = gf.inverses[value.num] #print "inverse is %d" % inverse #rows[rownum] = rows[rownum] * inverse # do this by hand rows[rownum] = [x*inverse for x in rows[rownum]] # subtract this row from all other rows for delnum in xrange(len(rows)): if delnum != rownum: # find the value of the item at that column delvalue = rows[delnum][i] if delvalue.num == 0: continue # multiply to clear it out #eliminator = rows[rownum] * delvalue #rows[delnum] = rows[delnum] - eliminator # do this by hand #eliminator = [x * delvalue for x in rows[rownum]] rows[delnum] = [rows[delnum][x] - (rows[rownum][x] * delvalue) for x in xrange(len(rows[delnum]))] # swap this row into place so we get identity if rownum != i: rows[i], rows[rownum] = rows[rownum], rows[i] return rows # this should live inside Decoder i guess def eliminatev3(rows, gf): # start at the top # create identity matrix and do everything on both identity = [[GFnum(1, gf) if y == x else GFnum(0, gf) for y in xrange(len(rows))] for x in xrange(len(rows))] for i in xrange(len(rows)): # print everything so we know what's happening #print "About to work with row %d" % i #print rows # find the rows that have leading zeros print "Working with row %d" % (i+1) candidaterows = set([x for x, y in enumerate(rows)]) for index, row in enumerate(rows): for x in xrange(i): if int(row[x].num) != 0: candidaterows.remove(index) break # find a row where there's something in column i goodrows = [x for x in candidaterows if rows[x][i].num != 0] if len(goodrows) < 1: # this means we fail encoding, should throw a fit i guess raise Exception("Couldn't decode coefficient %d" % i) # start with the highest column and baleet from all the others rownum = goodrows[0] #print "using row %d" % rownum row = rownum # divide first item so it's 1 (multiply by inverse) value = rows[rownum][i] inverse = gf.inverses[value.num] #print "inverse is %d" % inverse #rows[rownum] = rows[rownum] * inverse # do this by hand rows[rownum] = [x*inverse for x in rows[rownum]] identity[rownum] = [x*inverse for x in identity[rownum]] # subtract this row from all other rows for delnum in xrange(len(rows)): if delnum != rownum: # find the value of the item at that column delvalue = rows[delnum][i] if delvalue.num == 0: continue # multiply to clear it out #eliminator = rows[rownum] * delvalue #rows[delnum] = rows[delnum] - eliminator # do this by hand #eliminator = [x * delvalue for x in rows[rownum]] rows[delnum] = [rows[delnum][x] - (rows[rownum][x] * delvalue) for x in xrange(len(rows[delnum]))] identity[delnum] = [identity[delnum][x] - (identity[rownum][x] * delvalue) for x in xrange(len(identity[delnum]))] # swap this row into place so we get identity if rownum != i: rows[i], rows[rownum] = rows[rownum], rows[i] identity[i], identity[rownum] = identity[rownum], identity[i] #print identity return rows class Encoder: def __init__(self, gf): self.keys = None self.numpyrows = None self.numpieces = 0 self.gf = None self.length = 0 self.piecelength = 0 self.gf = gf def prime(self, message, numpieces): self.numpieces = numpieces # divide message into pieces self.length = len(message) piecelength = self.length / self.numpieces # this length/piece detection is broken, watchout! if self.length % self.numpieces > 0: piecelength = piecelength + 1 extrachars = (piecelength * numpieces) - self.length # pad for now with ? message = message + ''.join(['?' for x in xrange(extrachars)]) pieces = [message[i*piecelength:i*piecelength+piecelength] for i in xrange(numpieces)] # turn into matrix rows rows = [] for i in xrange(numpieces): row = [1 if x == i else 0 for x in xrange(numpieces)] + [ord(x) for x in pieces[i]] #print len(row) rows.append(row) self.numpyrows = numpy.matrix(make2dgf(rows, self.gf)) def generatepacket(self): seedvals = os.urandom(4) seed = struct.unpack("!L", seedvals)[0] seedlist = [ord(x) for x in seedvals] random.seed(seed) key = numpy.matrix([[GFnum(random.randint(2,254), self.gf) for x in xrange(self.numpieces)]]) message = key * self.numpyrows # take off the front and put on the seed messageaslist = message.tolist()[0][self.numpieces:] messagelist = seedlist + messageaslist # also return normal list instead of numpy array (double-copies yay) return messagelist class Encoderv2: def __init__(self, gf): self.keys = None self.numpyrows = None self.numpieces = 0 self.gf = None self.length = 0 self.piecelength = 0 self.gf = gf def prime(self, message, numpieces): self.numpieces = numpieces # divide message into pieces self.length = len(message) piecelength = self.length / self.numpieces self.piecelength = piecelength # this length/piece detection is broken, watchout! if self.length % self.numpieces > 0: piecelength = piecelength + 1 extrachars = (piecelength * numpieces) - self.length # pad for now with ? message = message + ''.join(['?' for x in xrange(extrachars)]) pieces = [message[i*piecelength:i*piecelength+piecelength] for i in xrange(numpieces)] # turn into matrix rows rows = [] for i in xrange(numpieces): row = [1 if x == i else 0 for x in xrange(numpieces)] + [ord(x) for x in pieces[i]] #print len(row) rows.append(row) self.rows = rows #self.numpyrows = numpy.matrix(make2dgf(rows, self.gf)) def generatepacket(self): seedvals = os.urandom(4) seed = struct.unpack("!L", seedvals)[0] seedlist = [ord(x) for x in seedvals] random.seed(seed) #key = numpy.matrix([[GFnum(random.randint(2,254), self.gf) for x in xrange(self.numpieces)]]) #key = [random.randint(2,254) for x in xrange(self.numpieces)] start = random.randint(0, self.numpieces) nonzeroes = [x % self.numpieces for x in xrange(start, start+10)] key = [0 for x in xrange(self.numpieces)] for x in nonzeroes: key[x] = random.randint(2,254) #message = key * self.numpyrows # do the multiplication by hand message = [] for i in xrange(len(self.rows[0])): mtotal = 0 for j in xrange(self.numpieces): num = self.rows[j][i] keybit = key[j] m = self.gf.table[num][keybit] mtotal = mtotal ^ m message.append(mtotal) # cast as GFnum to make things a bit easier for now messagegf = [GFnum(x, self.gf) for x in message] # take off the front and put on the seed messageaslist = messagegf[self.numpieces:] messagelist = seedlist + messageaslist # also return normal list instead of numpy array (double-copies yay) return messagelist class Decoder: def __init__(self, gf): self.gf = gf def decode(self, messages, numpieces): # regenerate coefficients from seed rowstodecode = [] for row in messages: seed = (row[0] << 24) + (row[1] << 16) + (row[2] << 8) + row[3] random.seed(seed) coefs = [GFnum(random.randint(2, 254), self.gf) for x in xrange(numpieces)] rowtodecode = numpy.matrix(coefs + row[4:]) rowstodecode.append(rowtodecode) # solve rows = eliminate(rowstodecode, self.gf) # need to decode # test for identity (will code later) # assume that it is solved and in correct order answers = [x.tolist()[0][numpieces:] for x in rows] #print answers output = ''.join([''.join([chr(b.num) for b in a]) for a in answers]) return output #print output class Decoderv2: def __init__(self, gf): self.gf = gf def decode(self, messages, numpieces): # regenerate coefficients from seed rowstodecode = [] for row in messages: seed = (row[0] << 24) + (row[1] << 16) + (row[2] << 8) + row[3] random.seed(seed) #nonzeroes = random.sample(xrange(numpieces), 10) start = random.randint(0, numpieces) nonzeroes = [x % numpieces for x in xrange(start, start+10)] key = [GFnum(0, self.gf) for x in xrange(numpieces)] for x in nonzeroes: key[x] = GFnum(random.randint(2,254), self.gf) #coefs = [GFnum(random.randint(2, 254), self.gf) for x in xrange(numpieces)] rowtodecode = key + row[4:] rowstodecode.append(rowtodecode) # solve rows = eliminatev3(rowstodecode, self.gf) # need to decode # test for identity (will code later) # assume that it is solved and in correct order answers = [x[numpieces:] for x in rows] #print answers output = ''.join([''.join([chr(b.num) for b in a]) for a in answers]) return output #print output def testencode(): # 80 character string plaintext = "big string with lots of characters. i am telling a story about stuff and thingsa" # 1170 characters of lorem ipsum loremipsum = open('loremipsum.txt').read() gf = GF256(open('gf256.json').read()) print "Encoding" t0 = time.clock() e = Encoder(gf) numpieces = 100 e.prime(loremipsum, numpieces) #e.prime(plaintext, numpieces) rows = [] for i in xrange(numpieces): print "Generating piece %d" % (i+1) rows.append(e.generatepacket()) t1 = time.clock() print "Time for encode: %fs" % (t1-t0) #print rows print "Decoding" d = Decoder(gf) posttext = d.decode(rows, numpieces) t2 = time.clock() print posttext print "Time for decode: %fs" % (t2-t1) def testencodev2(): # 80 character string plaintext = "big string with lots of characters. i am telling a story about stuff and thingsa" # 1170 characters of lorem ipsum loremipsum = open('loremipsum.txt').read() gf = GF256(open('gf256.json').read()) print "Encoding (v2)" t0 = time.clock() e = Encoderv2(gf) numpieces = 100 e.prime(loremipsum, numpieces) #e.prime(plaintext, numpieces) rows = [] for i in xrange(numpieces): print "Generating piece %d" % (i+1) rows.append(e.generatepacket()) t1 = time.clock() print "Time for encode: %fs" % (t1-t0) #print rows print "Decoding" d = Decoderv2(gf) posttext = d.decode(rows, numpieces) t2 = time.clock() print posttext print "Time for decode: %fs" % (t2-t1) def testeliminate(): gf = GF256(open('gf256.json').read()) message = numpy.matrix(make2dgf([[1, 0, 0, 0, 'G', 'a', 'r', 'y'], [0, 1, 0, 0, ' ', 'c', 'o', 'd'], [0, 0, 1, 0, 'i', 'n', 'g', ' '], [0, 0, 0, 1, 'F', 'T', 'W', '!']], gf)) key1 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]]) key2 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]]) key3 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]]) key4 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]]) m1 = key1 * message m2 = key2 * message m3 = key3 * message m4 = key4 * message rows = eliminate([m1, m2, m3, m4], gf) print rows def main(): # just generate stuff and print generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011 fieldsize = 256 gf256 = makegaloisfield(fieldsize, generator) print gf256["table"] print gf256["inverses"] if __name__ == "__main__": main()
34.666004
176
0.631359
2,528
17,437
4.332674
0.124604
0.016434
0.02246
0.035698
0.787273
0.77586
0.761253
0.740345
0.730667
0.720077
0
0.029846
0.242932
17,437
502
177
34.73506
0.799864
0.244595
0
0.595808
1
0
0.046305
0
0
0
0
0
0
0
null
null
0
0.023952
null
null
0.053892
0
0
0
null
0
0
0
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
7
c8a3538afc58bb8ca2dd803be5edd17549a1af8b
2,358
py
Python
cgi-bin/testdir.py
pinckert/pinckert.com
7d6ce3e37c6c39c1deebbceb40f4442d34c20e23
[ "Apache-2.0" ]
1
2020-07-29T22:45:07.000Z
2020-07-29T22:45:07.000Z
cgi-bin/testdir.py
pinckert/pinckert.com
7d6ce3e37c6c39c1deebbceb40f4442d34c20e23
[ "Apache-2.0" ]
null
null
null
cgi-bin/testdir.py
pinckert/pinckert.com
7d6ce3e37c6c39c1deebbceb40f4442d34c20e23
[ "Apache-2.0" ]
null
null
null
<<<<<<< HEAD #!/usr/bin/python import os import sys import json def buildLinks(fileList, path): # path is the location from root (script executes in cgi-bin) # returns: array of dictionary # file content format: # name: filename # is_dir: true if directory # link: action to execute when clicked # size: file size # date: creation date # file_info = [] parentDir = path[:path.rfind('/')] dotdot = {"name": "..", "is_dir": True, "size": 0, "date": 0} for file in fileList: fileLoc = "../"+path+'/'+file entry = { "file": file, "size": os.path.getsize(fileLoc), "is_dir": os.path.isdir(fileLoc), "date": os.path.getmtime(fileLoc), "link": "" } if entry["is_dir"]: entry["fileLoc"] = fileLoc = "\\"+fileLoc link = "http://www.pinckert.com/cgi-bin/dir.py?path="+path entry["link"] = link else: entry["link"] = "http://www.pinckert.com/"+path+'/'+file file_info.append(entry) return file_info; path = "tools/calendar" targetDir = "../"+path print targetDir files = os.listdir(targetDir) print files info = buildLinks(files, path) print info ======= #!/usr/bin/python import os import sys import json def buildLinks(fileList, path): # path is the location from root (script executes in cgi-bin) # returns: array of dictionary # file content format: # name: filename # is_dir: true if directory # link: action to execute when clicked # size: file size # date: creation date # file_info = [] parentDir = path[:path.rfind('/')] dotdot = {"name": "..", "is_dir": True, "size": 0, "date": 0} for file in fileList: fileLoc = "../"+path+'/'+file entry = { "file": file, "size": os.path.getsize(fileLoc), "is_dir": os.path.isdir(fileLoc), "date": os.path.getmtime(fileLoc), "link": "" } if entry["is_dir"]: entry["fileLoc"] = fileLoc = "\\"+fileLoc link = "http://www.pinckert.com/cgi-bin/dir.py?path="+path entry["link"] = link else: entry["link"] = "http://www.pinckert.com/"+path+'/'+file file_info.append(entry) return file_info; path = "tools/calendar" targetDir = "../"+path print targetDir files = os.listdir(targetDir) print files info = buildLinks(files, path) print info >>>>>>> cb97fa344060fddee1b1b68722c1e6b281f454c7
25.630435
65
0.61408
300
2,358
4.78
0.23
0.027894
0.025105
0.052999
0.969317
0.969317
0.969317
0.969317
0.969317
0.969317
0
0.015127
0.215013
2,358
91
66
25.912088
0.759589
0.236641
0
0.923077
0
0
0.175281
0
0
0
0
0
0
0
null
null
0
0.092308
null
null
0.092308
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
8
b518718385af9f4cd41fe271952d081b06d67cee
10,405
py
Python
test_units.py
B2dfir/gcp_timeliner
6142f2f3f27f4a1f2101866a3b9967232017d135
[ "Apache-2.0" ]
6
2019-09-22T02:54:59.000Z
2020-07-31T10:36:01.000Z
test_units.py
B2dfir/gcp_timeliner
6142f2f3f27f4a1f2101866a3b9967232017d135
[ "Apache-2.0" ]
null
null
null
test_units.py
B2dfir/gcp_timeliner
6142f2f3f27f4a1f2101866a3b9967232017d135
[ "Apache-2.0" ]
1
2019-09-26T03:36:01.000Z
2019-09-26T03:36:01.000Z
import os import csv import json import gcp_timeliner # To use this file, run the following command from this directory: # pytest test_functions.py -v def test_readMap(): testVal = gcp_timeliner.readMap("./maps/iam_PolicyUpdated.map") assert type(testVal) is dict assert len(testVal) == 2 def test_santization(): testString = "', '| ; |': {|}, {|\n|{|\t|" testVal = gcp_timeliner.sanitize(testString, "xlsx") assert len(testVal) == 37 def test_santizationFlat(): testString = "', '| ; |': {|}, {|\n|{|\t|" testVal = gcp_timeliner.sanitize(testString, "csv") assert len(testVal) == 25 def test_parse_log_which_matched_a_map_file(): logLine = '{"insertId":"-sumke9d4ngo","logName":"projects/peak-empire-243713/logs/cloudaudit.googleapis.com%2Factivity","protoPayload":{"@type":"type.googleapis.com/google.cloud.audit.AuditLog","authenticationInfo":{"principalEmail":"smash@smashsecurity.com"},"authorizationInfo":[{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}},{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}}],"methodName":"SetIamPolicy","request":{"@type":"type.googleapis.com/google.iam.v1.SetIamPolicyRequest","policy":{"bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"}],"etag":"BwWLXEtneGc="},"resource":"peak-empire-243713"},"requestMetadata":{"callerIp":"12.34.56.78","callerSuppliedUserAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)","destinationAttributes":{},"requestAttributes":{}},"resourceName":"projects/peak-empire-243713","response":{"@type":"type.googleapis.com/google.iam.v1.Policy","bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"}],"etag":"BwWLbsx/jl4="},"serviceData":{"@type":"type.googleapis.com/google.iam.v1.logging.AuditData","policyDelta":{"bindingDeltas":[{"action":"ADD","member":"serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com","role":"roles/iam.securityReviewer"}]}},"serviceName":"cloudresourcemanager.googleapis.com","status":{}},"receiveTimestamp":"2019-06-16T11:01:17.592409471Z","resource":{"labels":{"project_id":"peak-empire-243713"},"type":"project"},"severity":"NOTICE","timestamp":"2019-06-16T11:01:16.571Z"}' mapString = '\ {\ "conditions":{\ "resource.type":"project",\ "protoPayload.methodName":"SetIamPolicy",\ "protoPayload.serviceData.policyDelta.bindingDeltas":"*"\ },\ "fields":{\ "insertId":"insertId",\ "timestamp":"timestamp",\ "map":"string[iam_policyUpdated]",\ "project":"resource.labels.project_id",\ "account":"protoPayload.authenticationInfo.principalEmail",\ "ip":"protoPayload.requestMetadata.callerIp",\ "userAgent":"protoPayload.requestMetadata.callerSuppliedUserAgent",\ "type":"resource.type",\ "method":"protoPayload.methodName",\ "severity":"severity",\ "summary":"protoPayload.serviceData.policyDelta.bindingDeltas",\ "detail":"[fulljson]"\ }\ }' logObject = json.loads(logLine) m = json.loads(mapString) output = gcp_timeliner.parseLog(m, logObject, False) assert output['insertId'] == "-sumke9d4ngo" assert output['datetime'] == "2019-06-16T11:01:16.571Z" assert output['map'] == "iam_policyUpdated" assert output['account'] == "smash@smashsecurity.com" assert output['ip'] == "12.34.56.78" assert output['userAgent'] == "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)" assert output['type'] == "project" assert output['timestamp_desc'] == "SetIamPolicy" assert output['severity'] == "NOTICE" assert "serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com" in output['message'] assert "2019-06-16T11:01:16.571Z" in output['detail'] def test_parse_log_using_default_logic(): logLine = '{"insertId":"-sumke9d4ngo","logName":"projects/peak-empire-243713/logs/cloudaudit.googleapis.com%2Factivity","protoPayload":{"@type":"type.googleapis.com/google.cloud.audit.AuditLog","authenticationInfo":{"principalEmail":"smash@smashsecurity.com"},"authorizationInfo":[{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}},{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}}],"methodName":"SetIamPolicy","request":{"@type":"type.googleapis.com/google.iam.v1.SetIamPolicyRequest","policy":{"bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"}],"etag":"BwWLXEtneGc="},"resource":"peak-empire-243713"},"requestMetadata":{"callerIp":"12.34.56.78","callerSuppliedUserAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)","destinationAttributes":{},"requestAttributes":{}},"resourceName":"projects/peak-empire-243713","response":{"@type":"type.googleapis.com/google.iam.v1.Policy","bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"}],"etag":"BwWLbsx/jl4="},"serviceData":{"@type":"type.googleapis.com/google.iam.v1.logging.AuditData","policyDelta":{"bindingDeltas":[{"action":"ADD","member":"serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com","role":"roles/iam.securityReviewer"}]}},"serviceName":"cloudresourcemanager.googleapis.com","status":{}},"receiveTimestamp":"2019-06-16T11:01:17.592409471Z","resource":{"labels":{"project_id":"peak-empire-243713"},"type":"project"},"severity":"NOTICE","timestamp":"2019-06-16T11:01:16.571Z"}' logObject = json.loads(logLine) output = gcp_timeliner.defaultParser(logObject, False) assert output['insertId'] == "-sumke9d4ngo" assert output['datetime'] == "2019-06-16T11:01:16.571Z" assert output['map'] == "default" assert output['account'] == "smash@smashsecurity.com" assert output['ip'] == "12.34.56.78" assert output['userAgent'] == "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)" assert output['type'] == "project" assert output['timestamp_desc'] == "SetIamPolicy" assert output['severity'] == "NOTICE" assert "serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com" in output['message'] assert "projects/peak-empire-243713" in output['detail'] def test_writeCsv(): with open('unit_test.csv', 'w', newline='') as csvfile: fieldnames = ['insertId', 'timestamp', 'map', 'project', 'account', 'ip', 'userAgent', 'type', 'method', 'severity', 'summary', 'detail'] writer = csv.DictWriter(csvfile, fieldnames=fieldnames, delimiter='|') writer.writeheader() out = {} out['insertId'] = "a" out['datetime'] = "b" out['map'] = "c" out['project'] = "d" out['account'] = "e" out['ip'] = "f" out['userAgent'] = "g" out['type'] = "h" out['timestamp_desc'] = "i" out['severity'] = "j" out['message'] = "k" out['detail'] = "l" gcp_timeliner.writeCsv(out, writer) with open('unit_test.csv') as f: contents = f.read() assert len(contents) == 112 os.remove("unit_test.csv")
94.590909
3,096
0.701682
1,116
10,405
6.509857
0.198925
0.028906
0.049553
0.05203
0.803441
0.792429
0.789814
0.789814
0.776325
0.776325
0
0.060989
0.093897
10,405
110
3,097
94.590909
0.709588
0.008842
0
0.26087
0
0.043478
0.753855
0.646785
0
0
0
0
0.293478
1
0.065217
false
0
0.043478
0
0.108696
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
1
0
0
0
0
0
0
0
1
1
null
0
0
0
0
0
0
0
0
0
0
0
0
0
9
b562665cfd1d7508affb387335426c548940b1db
11,031
py
Python
src/scripts/plotting.py
esowc/aq-biascorrection
4fada30d71908c2e345c5e2fd0482c969dde19bd
[ "MIT" ]
9
2021-05-25T12:20:41.000Z
2021-11-02T12:29:00.000Z
src/scripts/plotting.py
esowc/aq-biascorrection
4fada30d71908c2e345c5e2fd0482c969dde19bd
[ "MIT" ]
8
2021-06-15T06:21:47.000Z
2021-09-10T08:07:13.000Z
src/scripts/plotting.py
esowc/aq-biascorrection
4fada30d71908c2e345c5e2fd0482c969dde19bd
[ "MIT" ]
3
2021-10-02T03:29:25.000Z
2021-12-08T03:22:24.000Z
import logging import os import sys from pathlib import Path import click from pytz import NonExistentTimeError from src import constants from src.data import utils from src.visualization.data_visualization import StationTemporalSeriesPlotter PATH = click.Path(exists=True, path_type=Path) @click.command() @click.argument( "varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True) ) @click.argument("country", type=click.STRING) @click.option("-d", "--data_path", type=PATH, required=True) @click.option( "-m", "--metadata_path", type=PATH, default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"), ) @click.option("-s", "--station", type=click.STRING, default=None) @click.option( "-o", "--output_path", type=PATH, default=None, help="Output path of the figure to be saved.", ) @click.option( "-a", "--agg_by", type=click.Choice(["daily", "monthly"]), default=None, help="Indicates if any temporal aggregation is" " needed.", metavar="<str>", ) def main_line( varname: str, country: str, data_path: Path, metadata_path: Path, station: str, output_path: Path = None, agg_by: str = None, ): """Generates a plot for the variable specified for all stations located in the country chosen. Args: varname (str): The name of the variable to consider. Specify 'all' for selecting all variables. Choiches are: 'pm25', 'o3', 'no2'. \n country (str): The country to consider. Specify 'all' for selecting all countries with processed data. """ logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt) countries = utils.get_countries() if country == "all" else [country] varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname] for var in varnames: for country in countries: temp_agg = agg_by.capitalize() if agg_by else "Raw" if output_path is not None: output_folder = output_path / var / "StationBias" / temp_agg os.makedirs(output_folder, exist_ok=True) else: output_folder = None logging.info(f"Processing plot for {var} bias for {country}.") StationTemporalSeriesPlotter( var, country, data_path, metadata_path, [station] if station else station, ).plot_data(output_folder, agg=agg_by) logging.info("The script finished!") @click.command() @click.argument( "varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True) ) @click.argument("country", type=click.STRING) @click.option("-d", "--data_path", type=PATH, required=True) @click.option( "-m", "--metadata_path", type=PATH, default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"), ) @click.option("-s", "--station", type=click.STRING, default=None) @click.option( "-o", "--output_path", type=PATH, default=None, help="Output path of the figure to be saved.", ) @click.option( "-a", "--agg_by", type=click.Choice(["daily", "monthly"]), default=None, help="Indicates if any temporal aggregation is" " needed.", metavar="<str>", ) def main_corrs( varname: str, country: str, data_path: Path, metadata_path: Path, station: str, output_path: Path = None, agg_by: str = None, ): """Generates a figure showing the correlation between all the features and the forecast bias. Args: varname (str): The name of the variable to consider. Specify 'all' for selecting all variables. Choiches are: 'pm25', 'o3', 'no2'. \n country (str): The country to consider. Specify 'all' for selecting all countries with processed data. """ logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt) countries = utils.get_countries() if country == "all" else [country] varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname] for var in varnames: for country in countries: temp_agg = agg_by.capitalize() if agg_by else "Raw" if output_path is not None: output_folder = output_path / var / "Correlations" / temp_agg os.makedirs(output_folder, exist_ok=True) else: output_folder = None logging.info(f"Processing correlation with {var} bias for " f"{country}.") StationTemporalSeriesPlotter( var, country, data_path, metadata_path, [station] if station else station, ).plot_correlations(output_folder, agg=agg_by) logging.info("The script finished!") @click.command() @click.argument( "varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True) ) @click.argument("country", type=click.STRING) @click.option("-d", "--data_path", type=PATH, required=True) @click.option( "-m", "--metadata_path", type=PATH, default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"), ) @click.option( "--show_std", type=click.BOOL, default=True, help="Show the " "estimated standard deviation of the dataset.", ) @click.option( "-o", "--output_path", type=PATH, default=None, help="Output path of the figure to be saved.", ) def main_hourly_bias( varname: str, country: str, data_path: Path, metadata_path: Path, show_std: bool = True, output_path: Path = None, ): """Generates a figure showing the correlation between all the features and the forecast bias. Args: varname (str): The name of the variable to consider. Specify 'all' for selecting all variables. Choiches are: 'pm25', 'o3', 'no2'.\n country (str): The country to consider. Specify 'all' for selecting all countries with processed data. """ logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt) countries = utils.get_countries() if country == "all" else [country] varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname] for var in varnames: for country in countries: logging.info(f"Processing hourly {var} bias for {country}.") if output_path is not None: output_folder = output_path / var / "HourlyBias" os.makedirs(output_folder, exist_ok=True) else: output_folder = None StationTemporalSeriesPlotter( var, country, data_path, metadata_path ).plot_hourly_bias(show_std, output_folder) logging.info("The script finished!") @click.command() @click.argument( "varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True) ) @click.argument("country", type=click.STRING) @click.option("-d", "--data_path", type=PATH, required=True) @click.option( "-m", "--metadata_path", type=PATH, metavar="<str>", default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"), ) @click.option( "-o", "--output_path", type=PATH, default=None, metavar="<str>", help="Output path of the figure to be saved.", ) @click.option( "-a", "--agg_by", type=click.Choice(["daily", "monthly"]), default=None, help="Indicates if any temporal aggregation is" " needed.", metavar="<str>", ) def main_cdf_bias( varname: str, country: str, data_path: Path, metadata_path: Path, output_path: Path = None, agg_by: str = None, ): """Generates a figure showing the empirical Cumulative Distribution Function (CDF) of the bias observed at each station. Args: varname (str): The name of the variable to consider. Specify 'all' for selecting all variables. Choiches are: 'pm25', 'o3', 'no2'.\n country (str): The country to consider. Specify 'all' for selecting all countries with processed data. """ logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt) countries = utils.get_countries() if country == "all" else [country] varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname] for var in varnames: for country in countries: temp_agg = agg_by.capitalize() if agg_by else "Raw" if output_path is not None: output_folder = output_path / var / "BiasDistribution" / temp_agg os.makedirs(output_folder, exist_ok=True) else: output_folder = None logging.info(f"Processing CDF of {var} bias for {country}.") StationTemporalSeriesPlotter( var, country, data_path, metadata_path ).plot_bias_cdf(output_folder, agg=agg_by) logging.info("The script finished!") @click.command() @click.argument( "varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True) ) @click.argument("country", type=click.STRING) @click.option("-d", "--data_path", type=PATH, required=True) @click.option( "-m", "--metadata_path", type=PATH, default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"), ) @click.option("-s", "--station", type=click.STRING, default=None) @click.option( "-o", "--output_path", type=PATH, default=None, help="Output path of the figure to be saved.", ) def main_monthly_bias( varname: str, country: str, data_path: Path, metadata_path: Path, station: str, output_path: Path = None, ): """Generates a plot for the variable specified for all stations located in the country chosen. This plots shows the montly distribution of the bias. Args: varname (str): The name of the variable to consider. Specify 'all' for selecting all variables. Choiches are: 'pm25', 'o3', 'no2'. \n country (str): The country to consider. Specify 'all' for selecting all countries with processed data. """ logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt) countries = utils.get_countries() if country == "all" else [country] varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname] for var in varnames: for country in countries: if output_path is not None: output_folder = output_path / var / "MonthlyBias" os.makedirs(output_folder, exist_ok=True) else: output_folder = None logging.info(f"Processing bias plot for {var} bias for {country}.") StationTemporalSeriesPlotter( var, country, data_path, metadata_path, [station] if station else station, ).plot_monthly_bias(output_folder) logging.info("The script finished!")
32.539823
88
0.625782
1,360
11,031
4.975
0.108824
0.036949
0.028377
0.02956
0.898167
0.898167
0.896098
0.888413
0.878658
0.874224
0
0.007207
0.245309
11,031
338
89
32.636095
0.805526
0.166349
0
0.801471
0
0
0.176164
0.026053
0
0
0
0
0
1
0.018382
false
0
0.033088
0
0.051471
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
a9508496bf993b88dad2217b9e7a92d885ad4627
3,820
py
Python
betting.py
fredlacs/SoccerPrediction
e610d2ec1a89228f6d684460e1860d3931b975c1
[ "MIT" ]
null
null
null
betting.py
fredlacs/SoccerPrediction
e610d2ec1a89228f6d684460e1860d3931b975c1
[ "MIT" ]
null
null
null
betting.py
fredlacs/SoccerPrediction
e610d2ec1a89228f6d684460e1860d3931b975c1
[ "MIT" ]
null
null
null
def test_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05): result = { 'spend': 0, 'return': 0, } for i in range(0, len(predictions)): probabilities = predictions[i]['probabilities'] if probabilities[1] > (1 / test_features['odds-draw'][i]) + bet_difference: result['spend'] = result['spend'] + 1 if test_labels[i] == 'D': result['return'] = result['return'] + test_features['odds-draw'][i] result['performance'] = result['return'] / result['spend'] return result def test_odd_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05): result = { 'spend': 0, 'return': 0, } for i in range(0, len(predictions)): probabilities = predictions[i]['probabilities'] if probabilities[1] > (1 / test_features['odds-draw'][i]) + bet_difference: result['spend'] = result['spend'] + 1 if test_labels[i] == 'D': result['return'] = result['return'] + test_features['odds-draw'][i] result['performance'] = result['return'] / result['spend'] return result def test_home_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05): result = { 'spend': 0, 'return': 0, } for i in range(0, len(predictions)): probabilities = predictions[i]['probabilities'] if probabilities[0] > (1 / test_features['odds-home'][i]) + bet_difference: result['spend'] = result['spend'] + 1 if test_labels[i] == 'H': result['return'] = result['return'] + test_features['odds-home'][i] result['performance'] = result['return'] / result['spend'] return result def test_away_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05): result = { 'spend': 0, 'return': 0, } for i in range(0, len(predictions)): probabilities = predictions[i]['probabilities'] # if probabilities[2] > (1 / test_features['odds-away'][i]) + bet_difference: result['spend'] = result['spend'] + 1 if test_labels[i] == 'A': result['return'] = result['return'] + test_features['odds-away'][i] result['performance'] = result['return'] / result['spend'] return result def test_mixt_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05): result = { 'spend': 0, 'return': 0, } betting_options = ["H", "D", "A"] for i in range(0, len(predictions)): max_prob = 0 probabilities = predictions[i]['probabilities'] for i in range(0, 3): if probabilities[i] > max_prob: max_prob = probabilities[i] to_bet_on = betting_options[i] if to_bet_on == "A": # if max_prob > (1 / test_features['odds-away'][i]) + bet_difference: result['spend'] = result['spend'] + 1 if test_labels[i] == 'A': result['return'] = result['return'] + test_features['odds-away'][i] if to_bet_on == "H": # if probabilities[0] > (1 / test_features['odds-home'][i]) + bet_difference: result['spend'] = result['spend'] + 1 if test_labels[i] == 'H': result['return'] = result['return'] + test_features['odds-home'][i] if to_bet_on == "D": # if probabilities[1] > (1 / test_features['odds-draw'][i]) + bet_difference: result['spend'] = result['spend'] + 1 if test_labels[i] == 'D': result['return'] = result['return'] + test_features['odds-draw'][i] result['performance'] = result['return'] / result['spend'] return result
33.80531
92
0.567801
443
3,820
4.735892
0.088036
0.125834
0.106768
0.056721
0.92183
0.902765
0.902765
0.890372
0.890372
0.890372
0
0.019031
0.270942
3,820
113
93
33.80531
0.734291
0.077487
0
0.74359
0
0
0.138352
0
0
0
0
0
0
1
0.064103
false
0
0
0
0.128205
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
8d59dc45c8fd053c1910599a3930ce2f986d2991
6,323
py
Python
tests/test_reverse_translate.py
williamabreu/routeros-cgnat
222ad014cb81d5608f38b591e80ea861efc738db
[ "MIT" ]
3
2020-09-08T20:52:36.000Z
2021-09-09T15:10:15.000Z
tests/test_reverse_translate.py
williamabreu/routeros-cgnat
222ad014cb81d5608f38b591e80ea861efc738db
[ "MIT" ]
null
null
null
tests/test_reverse_translate.py
williamabreu/routeros-cgnat
222ad014cb81d5608f38b591e80ea861efc738db
[ "MIT" ]
null
null
null
import unittest from collections import OrderedDict from ipaddress import IPv4Address, IPv4Network from pycgnat.translator.reverse import cgnat_reverse class TestReverseTranslate(unittest.TestCase): def setUp(self): self.privnet = IPv4Network("100.64.0.0/20") self.pubnet = IPv4Network("203.0.113.0/25") self.ip = IPv4Address("203.0.113.1") self.port = 1537 def test_cgnat_reverse(self): self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 1536 ), OrderedDict( private_ip=IPv4Address("100.64.0.0"), port_range=(1536, 3535) ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 2534 ), OrderedDict( private_ip=IPv4Address("100.64.0.0"), port_range=(1536, 3535) ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 3535 ), OrderedDict( private_ip=IPv4Address("100.64.0.0"), port_range=(1536, 3535) ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.127"), 3536 ), OrderedDict( private_ip=IPv4Address("100.64.0.255"), port_range=(3536, 5535) ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.127"), 4534 ), OrderedDict( private_ip=IPv4Address("100.64.0.255"), port_range=(3536, 5535) ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.127"), 5535 ), OrderedDict( private_ip=IPv4Address("100.64.0.255"), port_range=(3536, 5535) ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.31"), 6534 ), OrderedDict( private_ip=IPv4Address("100.64.1.31"), port_range=(5536, 7535) ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 60534 ), OrderedDict( private_ip=IPv4Address("100.64.14.128"), port_range=(59536, 61535), ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.3"), 65535 ), OrderedDict( private_ip=IPv4Address("100.64.15.131"), port_range=(63536, 65535), ), ) self.assertEqual( cgnat_reverse( self.privnet, self.pubnet, IPv4Address("203.0.113.3"), 63536 ), OrderedDict( private_ip=IPv4Address("100.64.15.131"), port_range=(63536, 65535), ), ) def test_ip_out_of_range(self): self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, IPv4Address("1.1.1.1"), self.port, ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, IPv4Address("203.0.113.128"), self.port, ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, IPv4Address("203.0.113.129"), self.port, ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, IPv4Address("203.0.113.254"), self.port, ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, IPv4Address("203.0.113.255"), self.port, ) def test_invalid_port(self): self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 0 ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1 ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1024 ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1025 ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1535 ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 65536, ) self.assertRaises( ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 99999, ) def test_invalid_ratio(self): self.assertRaises( ValueError, cgnat_reverse, self.pubnet, self.privnet, self.ip, self.port, ) self.assertRaises( ValueError, cgnat_reverse, IPv4Network("10.0.0.0/30"), IPv4Network("10.1.0.0/26"), self.ip, self.port, ) self.assertRaises( ValueError, cgnat_reverse, IPv4Network("10.1.0.0/26"), IPv4Network("10.0.0.0/30"), self.ip, self.port, ) self.assertRaises( ValueError, cgnat_reverse, IPv4Network("10.1.0.0/21"), IPv4Network("10.0.0.0/27"), self.ip, self.port, ) self.assertRaises( ValueError, cgnat_reverse, IPv4Network("10.1.0.0/23"), IPv4Network("10.0.0.0/27"), self.ip, self.port, )
29.273148
79
0.48458
594
6,323
5.060606
0.127946
0.115768
0.127745
0.16833
0.826347
0.826347
0.78809
0.772788
0.772788
0.772788
0
0.131824
0.406136
6,323
215
80
29.409302
0.668708
0
0
0.673077
0
0
0.066108
0
0
0
0
0
0.129808
1
0.024038
false
0
0.019231
0
0.048077
0
0
0
0
null
0
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
8d9809712631984036063f59c470461656d9c0b4
69
py
Python
python/String/1.py
MakeIoTReal/PythonBasic
844951ce8122523ad9aed4b7979df44520d92101
[ "Unlicense" ]
null
null
null
python/String/1.py
MakeIoTReal/PythonBasic
844951ce8122523ad9aed4b7979df44520d92101
[ "Unlicense" ]
null
null
null
python/String/1.py
MakeIoTReal/PythonBasic
844951ce8122523ad9aed4b7979df44520d92101
[ "Unlicense" ]
null
null
null
print('Hello') print("Hello") print('Hello \"World\"') print("\"d\"")
17.25
24
0.594203
9
69
4.555556
0.444444
0.731707
0.731707
0.97561
0
0
0
0
0
0
0
0
0.057971
69
4
25
17.25
0.630769
0
0
0
0
0
0.371429
0
0
0
0
0
0
1
0
true
0
0
0
0
1
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
0
0
0
1
0
7
a5e8091a9ec4a4ade6dec8a217e2dd1e16a02d02
10,741
py
Python
EvoScript.py
JonatasFontele/EvoScript
a6dfede9f73b703185335267669ea9cefe2a651a
[ "MIT" ]
null
null
null
EvoScript.py
JonatasFontele/EvoScript
a6dfede9f73b703185335267669ea9cefe2a651a
[ "MIT" ]
null
null
null
EvoScript.py
JonatasFontele/EvoScript
a6dfede9f73b703185335267669ea9cefe2a651a
[ "MIT" ]
null
null
null
# -*- coding: utf-8 -*- # Evo Bracket Sort Script created by Jony Walker. # Script ordenador de chaves da Evo feito por Jony Walker. file = open('entrada.txt', 'r') #Abre e le um arquivo txt. lista = file.readlines() #Le todas as linhas salvas em file e salva na memória virtual de lista. file = open('chaveamento.txt', 'w') #Abre ou cria um arquivo txt para ser escrito. number_of_lines = 0 name = [] for line in lista: #Iteracao. if line != "\n": #Se a line nao for vazia, continue. number_of_lines += 1 #Contador. name.append(line) #Adiciona cada linha a cada iteracao ao vetor 'name'. if (number_of_lines <= 16): #Se quantidade de inscritos for menor ou igual a 16, imprima chave para 8 confrontos. while (number_of_lines < 16): name.append("ninguem") number_of_lines += 1 chaves ="""[fase] [luta=A | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=B | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=C | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=D | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=E | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=F | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=G | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=H | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=I | player1=A | player2=B | resultado_p1=? | resultado_p2=?] [luta=II | player1=C | player2=D | resultado_p1=? | resultado_p2=?] [luta=III | player1=E | player2=F | resultado_p1=? | resultado_p2=?] [luta=IV | player1=G | player2=H | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=1 | player1=I | player2=II | resultado_p1=? | resultado_p2=?] [luta=2 | player1=III | player2=IV | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=X | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?] [/fase]""" % (name[0], name[1], name[2], name[3], name[4], name[5], name[6], name[7], name[8], name[9], name[10], name[11], name[12], name[13], name[14], name[15]) file.write(chaves) elif (16 < number_of_lines <= 32): #Se quantidade de inscritos for maior que 16 e menor ou igual a 32, imprima chave para 16 confrontos. while (number_of_lines < 32): name.append("ninguem") number_of_lines += 1 chaves ="""[fase] [luta=I | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=II | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=III | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=IV | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=V | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=VI | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=VII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=VIII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=IX | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=X | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=XI | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=XII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=XIII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=XIV | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=XV | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=XVI | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=A | player1=I | player2=II | resultado_p1=? | resultado_p2=?] [luta=B | player1=III | player2=IV | resultado_p1=? | resultado_p2=?] [luta=C | player1=V | player2=VI | resultado_p1=? | resultado_p2=?] [luta=D | player1=VII | player2=VIII | resultado_p1=? | resultado_p2=?] [luta=E | player1=IX | player2=X | resultado_p1=? | resultado_p2=?] [luta=F | player1=XI | player2=XII | resultado_p1=? | resultado_p2=?] [luta=G | player1=XIII | player2=XIV | resultado_p1=? | resultado_p2=?] [luta=H | player1=XV | player2=XVI | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=I | player1=A | player2=B | resultado_p1=? | resultado_p2=?] [luta=II | player1=C | player2=D | resultado_p1=? | resultado_p2=?] [luta=III | player1=E | player2=F | resultado_p1=? | resultado_p2=?] [luta=IV | player1=G | player2=H | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=1 | player1=I | player2=II | resultado_p1=? | resultado_p2=?] [luta=2 | player1=III | player2=IV | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=A | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?] [/fase]""" % (name[0], name[1], name[2], name[3], name[4], name[5], name[6], name[7], name[8], name[9], name[10], name[11], name[12], name[13], name[14], name[15], name[16], name[17], name[18], name[19], name[20], name[21], name[22], name[23], name[24], name[25], name[26], name[27], name[28], name[29], name[30], name[31]) file.write(chaves) else: #Se quantidade de inscritos for maior do que 32, imprima chave para 32 confrontos. while (number_of_lines < 64): name.append("ninguem") number_of_lines += 1 chaves ="""[fase] [luta=1 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=2 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=3 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=4 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=5 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=6 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=7 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=8 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=9 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=10 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=11 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=12 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=13 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=14 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=15 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=16 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=17 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=18 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=19 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=20 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=21 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=22 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=23 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=24 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=25 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=26 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=27 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=28 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=29 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=30 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=31 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [luta=32 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=I | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?] [luta=II | player1=3 | player2=4 | resultado_p1=? | resultado_p2=?] [luta=III | player1=5 | player2=6 | resultado_p1=? | resultado_p2=?] [luta=IV | player1=7 | player2=8 | resultado_p1=? | resultado_p2=?] [luta=V | player1=9 | player2=10 | resultado_p1=? | resultado_p2=?] [luta=VI | player1=11 | player2=12 | resultado_p1=? | resultado_p2=?] [luta=VII | player1=13 | player2=14 | resultado_p1=? | resultado_p2=?] [luta=VIII | player1=15 | player2=16 | resultado_p1=? | resultado_p2=?] [luta=IX | player1=17 | player2=18 | resultado_p1=? | resultado_p2=?] [luta=X | player1=19 | player2=20 | resultado_p1=? | resultado_p2=?] [luta=XI | player1=21 | player2=22 | resultado_p1=? | resultado_p2=?] [luta=XII | player1=23 | player2=24 | resultado_p1=? | resultado_p2=?] [luta=XIII | player1=25 | player2=26 | resultado_p1=? | resultado_p2=?] [luta=XIV | player1=27 | player2=28 | resultado_p1=? | resultado_p2=?] [luta=XV | player1=29 | player2=30 | resultado_p1=? | resultado_p2=?] [luta=XVI | player1=31 | player2=32 | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=A | player1=I | player2=II | resultado_p1=? | resultado_p2=?] [luta=B | player1=III | player2=IV | resultado_p1=? | resultado_p2=?] [luta=C | player1=V | player2=VI | resultado_p1=? | resultado_p2=?] [luta=D | player1=VII | player2=VIII | resultado_p1=? | resultado_p2=?] [luta=E | player1=IX | player2=X | resultado_p1=? | resultado_p2=?] [luta=F | player1=XI | player2=XII | resultado_p1=? | resultado_p2=?] [luta=G | player1=XIII | player2=XIV | resultado_p1=? | resultado_p2=?] [luta=H | player1=XV | player2=XVI | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=I | player1=A | player2=B | resultado_p1=? | resultado_p2=?] [luta=II | player1=C | player2=D | resultado_p1=? | resultado_p2=?] [luta=III | player1=E | player2=F | resultado_p1=? | resultado_p2=?] [luta=IV | player1=G | player2=H | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=1 | player1=I | player2=II | resultado_p1=? | resultado_p2=?] [luta=2 | player1=III | player2=IV | resultado_p1=? | resultado_p2=?] [/fase] [fase] [luta=A | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?] [/fase]""" % (name[0], name[1], name[2], name[3], name[4], name[5], name[6], name[7], name[8], name[9], name[10], name[11], name[12], name[13], name[14], name[15], name[16], name[17], name[18], name[19], name[20], name[21], name[22], name[23], name[24], name[25], name[26], name[27], name[28], name[29], name[30], name[31], name[32], name[33], name[34], name[35], name[36], name[37], name[38], name[39], name[40], name[41], name[42], name[43], name[44], name[45], name[46], name[47], name[48], name[49], name[50], name[51], name[52], name[53], name[54], name[55], name[56], name[57], name[58], name[59], name[60], name[61], name[62], name[63]) file.write(chaves) file.close()
60.683616
164
0.627688
1,554
10,741
4.185328
0.1139
0.184348
0.335178
0.368696
0.84302
0.826107
0.816574
0.731242
0.726476
0.384225
0
0.088545
0.176706
10,741
176
165
61.028409
0.646952
0.059119
0
0.452941
0
0
0.791246
0
0
0
0
0
0
1
0
false
0
0
0
0
0
0
0
0
null
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
a5efe7cc6777357005860c4e136b5079c8e98320
23,403
py
Python
tesuract/tests/test_pceregression2.py
kennychowdhary/tesuract
70aee5128171b1ef7b3d71d2c833e8d4e47b21f5
[ "BSD-3-Clause" ]
3
2021-12-25T17:24:47.000Z
2022-01-28T19:05:58.000Z
tesuract/tests/test_pceregression2.py
kennychowdhary/tesuract
70aee5128171b1ef7b3d71d2c833e8d4e47b21f5
[ "BSD-3-Clause" ]
null
null
null
tesuract/tests/test_pceregression2.py
kennychowdhary/tesuract
70aee5128171b1ef7b3d71d2c833e8d4e47b21f5
[ "BSD-3-Clause" ]
1
2021-12-25T17:24:59.000Z
2021-12-25T17:24:59.000Z
import tesuract import unittest import numpy as np import warnings, pdb import time as T import pytest from sklearn.metrics import mean_squared_error from sklearn.datasets import make_friedman1 from sklearn.model_selection import train_test_split from sklearn.model_selection import cross_val_score from sklearn.model_selection import KFold from sklearn.model_selection import GridSearchCV from sklearn.metrics import make_scorer from sklearn.model_selection import cross_val_score from sklearn.decomposition import PCA relpath = tesuract.__file__[:-11] # ignore the __init__.py specification print(relpath) def mse(a, b): return mean_squared_error(a, b, squared=False) @pytest.mark.regression class TestPCERegression(unittest.TestCase): def test_checking_predict_does_recompute_mindex(self): # this test will ensure the model selector selector works X, y = make_friedman1(n_samples=50, n_features=10, random_state=0) p = tesuract.PCEReg(order=2) p.fit(X, y) p.predict(X) Xnew = X[:, :-2] p.fit(Xnew, y) p.predict(Xnew) print("# times computing mindex:", p._mindex_compute_count_) assert ( p._mindex_compute_count_ == 2 ), "mindex should be recomputed when X dim changes. " def test_checking_predict_does_not_recompute_mindex(self): # this is a test to count the number of times mindex is computed X, y = make_friedman1(n_samples=50, n_features=10, random_state=0) p = tesuract.PCEReg(order=2) p.fit(X, y) p.predict(X) Xnew, ynew = X[10:], y[10:] p.fit(Xnew, ynew) p.predict(Xnew) print("# times mindex is computed: ", p._mindex_compute_count_) assert ( p._mindex_compute_count_ == 1 ), "mindex should NOT be recomputed when X row size changes." def test_k_fold_mindex_count(self): # this is a test to count the number of times mindex is computed X, y = make_friedman1(n_samples=50, n_features=10, random_state=0) X = 2 * X - 1 # scale to [-1,1] kf = KFold(n_splits=5) p = tesuract.PCEReg() for train_index, test_index in kf.split(X): X_train, X_test = X[train_index], X[test_index] y_train, y_test = y[train_index], y[test_index] p.fit(X_train, y_train) score = np.sum(1 - p.predict(X_test) ** 2 / y_test**2) # print(score) print("# times mindex is computed: ", p._mindex_compute_count_) assert ( p._mindex_compute_count_ == 1 ), "mindex should NOT be recomputed when X row size changes." def test_k_fold_mindex_count(self): # this is a test to count the number of times mindex is computed X, y = make_friedman1(n_samples=50, n_features=10, random_state=0) X = 2 * X - 1 # scale to [-1,1] params = {"order": [1, 2, 3]} estimator = tesuract.PCEReg(fit_type="LassoCV") grid = GridSearchCV(estimator, params) grid.fit(X, y) # print(grid.cv_results_) print("# times computed...", grid.best_estimator_._mindex_compute_count_) assert ( grid.best_estimator_._mindex_compute_count_ == 1 ), "Best estimator should only compute mindex once!" def test_feature_importance_friedman_example(self): # this is a test to count the number of times mindex is computed X, y = make_friedman1(n_samples=100, n_features=10, random_state=0) X = 2 * X - 1 # scale to [-1,1] estimator = tesuract.PCEReg(order=4, fit_type="LassoCV") estimator.fit(X, y) fi = estimator.feature_importances_ print(fi > 0.05) assert ( np.sum(fi > 0.05) == 5 ), "friedman function should have 5 important features only." def test_grid_search_cv_picks_right_order(self): # rn = np.random.RandomState(99) X = 2 * rn.rand(50, 5) - 1 fi_index = 3 x = X[:, 3] # y = (1./8)*(35.*x**4 - 30*x**4 + 3) y = (1.0 / 2) * (5 * x**3 - 3 * x) params = {"order": [1, 2, 3, 4]} estimator = tesuract.PCEReg(fit_type="LassoCV") start = T.time() grid = GridSearchCV(estimator, params, cv=KFold(n_splits=5)) grid.fit(X, y) end = T.time() print("Total grid search time is {0:.2f} seconds.".format(end - start)) # print(grid.cv_results_) print("\nbest parameters:", grid.best_params_) fi = grid.best_estimator_.feature_importances_ # print("\nfeatures:", grid.best_estimator_.feature_importances_) assert ( grid.best_params_["order"] == 3 ), "Grid search should find the best order 4, but it is not. Something is wrong." assert ( np.argmax(fi) == fi_index ), "Not finding the right feature importance index." def test_grid_search_cv_picks_right_order_and_features(self): # rn = np.random.RandomState(99) X = 2 * rn.rand(50, 5) - 1 fi_index = 1 x = X[:, fi_index] y = (1.0 / 8) * (35.0 * x**4 - 30 * x**4 + 3) # y = (1./2)*(5*x**3 - 3*x) params = {"order": [1, 2, 3, 4]} estimator = tesuract.PCEReg(fit_type="LassoCV") start = T.time() grid = GridSearchCV(estimator, params, cv=KFold(n_splits=5)) grid.fit(X, y) end = T.time() print("Total grid search time is {0:.2f} seconds.".format(end - start)) print(grid.cv_results_) print("\nbest parameters:", grid.best_params_) fi = grid.best_estimator_.feature_importances_ # print("\nfeatures:", fi) assert ( grid.best_params_["order"] == 3 ), "Grid search should find the best order 4, but it is not. Something is wrong." assert ( np.argmax(fi) == fi_index ), "Not finding the right feature importance index." # print("# times computed...", grid.best_estimator_._mindex_compute_count_) from warnings import simplefilter from sklearn.exceptions import ConvergenceWarning simplefilter("ignore", category=ConvergenceWarning) # regression test for multi output pca regressor @pytest.mark.regression class TestMRegressionWrapper(unittest.TestCase): @classmethod def setUpClass(self): self.X = np.loadtxt(relpath + "/tests/data/rom_test_X.txt") self.Y = np.loadtxt(relpath + "/tests/data/rom_test_Y.txt") X, Y = self.X, self.Y from sklearn.model_selection import KFold self.kf = KFold(n_splits=2) def test_simplified_model_fit_with_single_param_for_each_comp(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) target_transform = tesuract.preprocessing.target_pipeline_custom( log=False, scale=False, pca=True, n_components="auto", whiten=True, exp_var_cutoff=0.5, ) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel.fit(X, Y) start = T.time() cvscore = cross_val_score(regmodel, X, Y, cv=5, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) print("total time is ", T.time() - start) n_components = len(regmodel.best_params_) reg_custom_list = ["pce" for i in range(n_components)] reg_param_list = regmodel.best_params_ target_transform = tesuract.preprocessing.target_pipeline_custom( log=False, scale=False, pca=True, n_components=n_components, whiten=True ) regmodel_opt = tesuract.MRegressionWrapperCV( regressor=reg_custom_list, reg_params=reg_param_list, custom_params=True, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) start = T.time() cvscore = cross_val_score(regmodel_opt, X, Y, cv=5, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) print("total time is ", T.time() - start) def test_simplified_model_fit_with_uninstantiated_PCA_target_transform(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) # target_transform = tesuract.preprocessing.target_pipeline_custom(log=False,scale=False,pca=True,n_components='auto',whiten=True,cutoff=.5) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=PCA, target_transform_params={"n_components": 4}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel._fit_target_transform(Y) def test_target_transform_has_certain_attributes_without_target_instantiation(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) # FactorAnalysis which has no inverse transform from sklearn.decomposition import FactorAnalysis regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=FactorAnalysis, target_transform_params={"n_components": 8}, n_jobs=1, scorer=custom_scorer, verbose=0, ) with self.assertRaises(Exception): regmodel._fit_target_transform(Y) def test_target_transform_has_certain_attributes_w_target_instantiation(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) # FactorAnalysis which has no inverse transform from sklearn.decomposition import FactorAnalysis FA = FactorAnalysis(n_components=4) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=FA, target_transform_params=None, n_jobs=1, scorer=custom_scorer, verbose=0, ) with self.assertRaises(Exception): regmodel._fit_target_transform(Y) def test_simplified_model_fit_with_instantiated_PCA_target_transform(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) # target_transform = tesuract.preprocessing.target_pipeline_custom(log=False,scale=False,pca=True,n_components='auto',whiten=True,cutoff=.5) target_transform = PCA(n_components=2) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel.fit(X, Y) start = T.time() cvscore = cross_val_score(regmodel, X, Y, cv=5, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) print("total time is ", T.time() - start) n_components = len(regmodel.best_params_) reg_custom_list = ["pce" for i in range(n_components)] reg_param_list = regmodel.best_params_ target_transform = tesuract.preprocessing.target_pipeline_custom( log=False, scale=False, pca=True, n_components=n_components, whiten=True ) regmodel_opt = tesuract.MRegressionWrapperCV( regressor=reg_custom_list, reg_params=reg_param_list, custom_params=True, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) start = T.time() cvscore = cross_val_score(regmodel_opt, X, Y, cv=5, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) print("total time is ", T.time() - start) def test_multi_target_init_with_custom_param_list(self): # uses the best params as the new set of param grid space # not efficient but can be faster than original space X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) target_transform = tesuract.preprocessing.target_pipeline_custom( log=False, scale=False, pca=True, n_components="auto", whiten=True, exp_var_cutoff=0.5, ) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel.fit(X, Y) start = T.time() cvscore = cross_val_score(regmodel, X, Y, cv=5, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) print("total time is ", T.time() - start) new_params = regmodel.best_params_ new_regressors = ["pce" for i in range(len(new_params))] regmodel_opt = tesuract.MRegressionWrapperCV( regressor=new_regressors, reg_params=new_params, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) start = T.time() cvscore = cross_val_score(regmodel_opt, X, Y, cv=5, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) print("total time is ", T.time() - start) def test_multi_target_init_with_custom_param_list2(self): # uses the best params as the new set of param grid space # not efficient but can be faster than original space X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = "pce" # will be a list automaticall if string param_list = pce_grid def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) target_transform = tesuract.preprocessing.PCATargetTransform( n_components="auto", whiten=True, exp_var_cutoff=0.5, ) print(target_transform.fit_transform(Y).shape) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) print("custom params:", regmodel.custom_params) # should be regmodel.fit(X, Y) def test_rom_w_single_regressor_as_list(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) target_transform = tesuract.preprocessing.target_pipeline_custom( log=False, scale=False, pca=True, n_components=4, whiten=True ) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel.fit(X, Y) cvscore = cross_val_score(regmodel, X, Y, cv=2, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) def test_rom_w_single_regressor_as_list_wo_pca(self): X, Y = self.X, self.Y[:, ::75] # shorten output pce_grid = [ { "order": list(range(2)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = ["pce"] param_list = [pce_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) # target_transform = tesuract.preprocessing.target_pipeline_custom(log=False,scale=False,pca=False,n_components=4,whiten=True) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=None, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel.fit(X, Y) cvscore = cross_val_score(regmodel, X, Y, cv=2, scoring="r2", n_jobs=1) print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4))) # get feature importances and weighted versions fi = regmodel.feature_importances_ ws = regmodel.sobol_weighted_ assert ws.ndim == 1, "weighted sobol must be a single vector" # get explained variance ratio evr = regmodel.explained_variance_ratio_ assert np.amin(evr) == np.amax( evr ), "The explained variance ratio when target transform = None should be equal." # print("explained var ratio when target transform is None: ", evr) def test_rom_w_single_regressor_as_str(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] regressors = "pce" param_list = pce_grid def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) target_transform = tesuract.preprocessing.target_pipeline_custom( log=False, scale=False, pca=True, n_components=3, whiten=True, exp_var_cutoff=1 - 0.25, ) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel.fit(X, Y) # test feature importance and explained var ratio for pca fi = regmodel.feature_importances_ ws = regmodel.sobol_weighted_ assert ws.ndim == 1, "weighted sobol must be a single vector" # get explained variance ratio evr = regmodel.explained_variance_ratio_ print("explained variance ratio when using pca:", evr) def test_rom_w_multiple_regressors(self): X, Y = self.X, self.Y pce_grid = [ { "order": list(range(1, 3)), "mindex_type": ["total_order"], "fit_type": ["LassoCV"], } ] # random forest fit rf_grid = { "n_estimators": [50, 100], "max_features": ["auto"], "max_depth": [5, 10], } regressors = ["pce", "rf"] param_list = [pce_grid, rf_grid] def my_scorer(ytrue, ypred): mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2) return -mse custom_scorer = make_scorer(my_scorer, greater_is_better=True) target_transform = tesuract.preprocessing.target_pipeline_custom( log=False, scale=False, pca=True, n_components="auto", whiten=True, exp_var_cutoff=1 - 0.25, ) regmodel = tesuract.MRegressionWrapperCV( regressor=regressors, reg_params=param_list, target_transform=target_transform, target_transform_params={}, n_jobs=1, scorer=custom_scorer, verbose=0, ) regmodel.fit(X, Y)
36.913249
148
0.579797
2,808
23,403
4.598291
0.097578
0.069703
0.018742
0.046468
0.830932
0.80158
0.784696
0.776332
0.764715
0.753098
0
0.019809
0.311883
23,403
633
149
36.971564
0.78198
0.074435
0
0.705128
0
0
0.086166
0.002405
0
0
0
0
0.025641
1
0.056777
false
0
0.053114
0.001832
0.135531
0.051282
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
93a9178b203ac4ad55a9cd1908ae6892935f1e6b
104
py
Python
lib/config/__init__.py
yaopengUSTC/mbit-skin-cancer
a82a87b2abebaf724dbe2a7b7e833c434c1b56a0
[ "MIT" ]
3
2022-01-23T05:27:43.000Z
2022-03-08T07:29:25.000Z
lib/config/__init__.py
yaopengUSTC/mbit-skin-cancer
a82a87b2abebaf724dbe2a7b7e833c434c1b56a0
[ "MIT" ]
null
null
null
lib/config/__init__.py
yaopengUSTC/mbit-skin-cancer
a82a87b2abebaf724dbe2a7b7e833c434c1b56a0
[ "MIT" ]
null
null
null
from .default import _C as cfg from .default import update_config from .default import update_cfg_name
34.666667
36
0.826923
17
104
4.823529
0.529412
0.402439
0.621951
0.560976
0
0
0
0
0
0
0
0
0.144231
104
3
36
34.666667
0.921348
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
8
93e8dcbc41fec28a01b684a6f1241588421acf2e
1,061
py
Python
validation/explore_precision.py
dylancromer/OffsetNFW
4a93ca2f2d77f69bb1934aed2dbc4d5d3fe129c0
[ "BSD-3-Clause" ]
1
2019-03-25T19:22:35.000Z
2019-03-25T19:22:35.000Z
validation/explore_precision.py
dylancromer/OffsetNFW
4a93ca2f2d77f69bb1934aed2dbc4d5d3fe129c0
[ "BSD-3-Clause" ]
1
2016-02-22T21:55:33.000Z
2016-03-02T23:52:39.000Z
validation/explore_precision.py
dylancromer/OffsetNFW
4a93ca2f2d77f69bb1934aed2dbc4d5d3fe129c0
[ "BSD-3-Clause" ]
1
2019-03-27T19:17:09.000Z
2019-03-27T19:17:09.000Z
def main(): # Make a 10^14 c=4 halo, check radial binning # Make a 10^14 c=4 halo, check miscentering binning # Make a 10^14 c=2 halo, check radial binning # Make a 10^14 c=2 halo, check miscentering binning # Make a 10^14 c=6 halo, check radial binning # Make a 10^14 c=6 halo, check miscentering binning # Make a 10^13 c=4 halo, check radial binning # Make a 10^13 c=4 halo, check miscentering binning # Make a 10^13 c=2 halo, check radial binning # Make a 10^13 c=2 halo, check miscentering binning # Make a 10^13 c=6 halo, check radial binning # Make a 10^13 c=6 halo, check miscentering binning # Make a 10^15 c=4 halo, check radial binning # Make a 10^15 c=4 halo, check miscentering binning # Make a 10^15 c=2 halo, check radial binning # Make a 10^15 c=2 halo, check miscentering binning # Make a 10^15 c=6 halo, check radial binning # Make a 10^15 c=6 halo, check miscentering binning
48.227273
68
0.617342
182
1,061
3.598901
0.093407
0.137405
0.192366
0.363359
0.989313
0.989313
0.960305
0.960305
0.946565
0
0
0.123288
0.31197
1,061
21
69
50.52381
0.773973
0.852969
0
0
0
0
0
0
0
0
0
0
0
0
null
null
0
0
null
null
0
0
0
0
null
0
1
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
9
93fe977952994bc3a5c60e5d36a476c1d8dfadda
3,913
py
Python
test users/common_testing_tools.py
Tapawingo/FreeTakServer
30259fa0fb5a69bbf6606f06d9cd40a63d2aa4fd
[ "MIT" ]
27
2020-05-01T01:45:59.000Z
2020-07-03T00:17:13.000Z
test users/common_testing_tools.py
Tapawingo/FreeTakServer
30259fa0fb5a69bbf6606f06d9cd40a63d2aa4fd
[ "MIT" ]
34
2020-04-26T11:25:52.000Z
2020-07-03T21:06:34.000Z
test users/common_testing_tools.py
Tapawingo/FreeTakServer
30259fa0fb5a69bbf6606f06d9cd40a63d2aa4fd
[ "MIT" ]
15
2020-05-01T01:46:07.000Z
2020-07-03T12:14:04.000Z
import socket import time import asyncio import test_data import ssl class TCPClient: def __init__(self, ip, port): self.clientObj = test_data.TestCoTClient() self.sock = self.establish_socket_connection(ip=ip, port=port) def establish_socket_connection(self, ip, port): sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM) sock.connect((ip, port)) sock.send(self.clientObj.generate_cot()) return sock def send_specific_data(self, cot: bytes): self.sock.send(cot) def service_connection(self): self.receive_data_until_empty() self.send_connection_data() def receive_data_until_empty(self): self.sock.settimeout(0.1) while True: try: self.sock.recv(100000) except: break def receive_specific_data(self, buffer: int): return self.sock.recv(buffer) def send_connection_data(self): self.sock.send(self.clientObj.generate_cot()) self.sock.send(test_data.TestCoTClient().generate_object_cot()) def connection_is_alive(self): try: self.sock.send(test_data.TestCoTClient().generate_object_cot()) if self.sock.recv(5) != b'': return True else: return False except: return False class TCPClientAsync: def __init__(self, ip, port): self.clientObj = test_data.TestCoTClient() self.sock = self.establish_socket_connection(ip=ip, port=port) def establish_socket_connection(self, ip, port): sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM) sock.connect((ip, port)) sock.send(self.clientObj.generate_cot()) return sock async def service_connection(self): asyncio.create_task(self.receive_data_until_empty()) asyncio.create_task(self.send_connection_data()) async def receive_data_until_empty(self): self.sock.settimeout(0.1) while True: try: self.sock.recv(100000) except: break async def send_connection_data(self): self.sock.send(self.clientObj.generate_cot()) self.sock.send(test_data.TestCoTClient().generate_object_cot()) def connection_is_alive(self): try: self.sock.send(test_data.TestCoTClient().generate_object_cot()) if self.sock.recv(5) != b'': return True else: return False except: return False class SSLClientAsync: def __init__(self, cert_file, key_file, ip, port): self.clientObj = test_data.TestCoTClient() self.sock = self.establish_socket_connection(cert_file=cert_file, key_file=key_file, ip=ip, port=port) def establish_socket_connection(self, cert_file, key_file, ip, port): sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM) ssl_sock = ssl.wrap_socket(sock, ssl_version=ssl.PROTOCOL_TLSv1_2, certfile=cert_file, keyfile=key_file) ssl_sock.connect((ip, port)) ssl_sock.send(self.clientObj.generate_cot()) return ssl_sock async def service_connection(self): self.send_connection_data() async def receive_data_until_empty(self): self.sock.settimeout(0.1) while True: try: self.sock.recv(100000) except: break def send_connection_data(self): self.sock.send(self.clientObj.generate_cot()) self.sock.send(test_data.TestCoTClient().generate_object_cot()) def connection_is_alive(self): try: self.sock.send(test_data.TestCoTClient().generate_object_cot()) if self.sock.recv(5) != b'': return True else: return False except: return False
32.07377
112
0.628163
476
3,913
4.915966
0.142857
0.078632
0.051282
0.053846
0.827778
0.794444
0.767949
0.737179
0.737179
0.718376
0
0.010211
0.274214
3,913
122
113
32.07377
0.813732
0
0
0.754902
0
0
0
0
0
0
0
0
0
1
0.147059
false
0
0.04902
0.009804
0.352941
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
9e0f92273610f2e1461d03402ffd073dc4a04227
1,215
py
Python
box/render.py
vqv/R-Box
a63118fb4470450fd09a0ba6f2248ce0a4c9dccb
[ "MIT" ]
174
2015-01-07T19:28:03.000Z
2021-09-19T06:29:40.000Z
box/render.py
vqv/R-Box
a63118fb4470450fd09a0ba6f2248ce0a4c9dccb
[ "MIT" ]
113
2015-01-16T14:18:49.000Z
2020-01-07T15:00:59.000Z
box/render.py
vqv/R-Box
a63118fb4470450fd09a0ba6f2248ce0a4c9dccb
[ "MIT" ]
29
2015-01-19T05:45:52.000Z
2021-05-30T04:07:40.000Z
import sublime_plugin class RBoxRenderRmarkdownCommand(sublime_plugin.TextCommand): def is_enabled(self): return self.view.settings().get("syntax").endswith("R Markdown.sublime-syntax") def run(self, edit): cmd = "rmarkdown::render(\"$file\", encoding = \"UTF-8\")" self.view.run_command("send_code", {"cmd": cmd}) class RBoxSweaveRnwCommand(sublime_plugin.TextCommand): def is_enabled(self): return self.view.settings().get("syntax").endswith("R Sweave.sublime-syntax") def run(self, edit): cmd = ("""setwd(\"$file_path\")\n""" """Sweave(\"$file\")\n""" """tools::texi2dvi(\"$file_base_name.tex\", pdf = TRUE)""") self.view.run_command("send_code", {"cmd": cmd}) class RBoxKnitRnwCommand(sublime_plugin.TextCommand): def is_enabled(self): return self.view.settings().get("syntax").endswith("R Sweave.sublime-syntax") def run(self, edit): cmd = ("""setwd(\"$file_path\")\n""" """knitr::knit(\"$file\", output=\"$file_base_name.tex\")\n""" """tools::texi2dvi(\"$file_base_name.tex\", pdf = TRUE)")""") self.view.run_command("send_code", {"cmd": cmd})
36.818182
87
0.609053
144
1,215
4.993056
0.319444
0.066759
0.100139
0.112656
0.76217
0.76217
0.76217
0.720445
0.720445
0.662031
0
0.003043
0.188477
1,215
32
88
37.96875
0.726166
0
0
0.619048
0
0
0.20297
0.109901
0
0
0
0
0
1
0.285714
false
0
0.047619
0.142857
0.619048
0
0
0
0
null
0
0
0
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
1
0
0
8
9e1b0718077e4d1c3ba6ce0b977bc69ae62f1cb5
145
py
Python
tests/conftest.py
cwstryker/skidl
b5854ecd71e9da70d5391ad67ab30a8985a61ee8
[ "MIT" ]
133
2015-08-13T17:33:57.000Z
2021-05-11T04:28:07.000Z
tests/conftest.py
cwstryker/skidl
b5854ecd71e9da70d5391ad67ab30a8985a61ee8
[ "MIT" ]
53
2015-08-17T18:53:50.000Z
2020-11-20T13:07:12.000Z
tests/conftest.py
cwstryker/skidl
b5854ecd71e9da70d5391ad67ab30a8985a61ee8
[ "MIT" ]
41
2015-08-18T00:48:01.000Z
2021-01-05T00:34:55.000Z
import os import os.path import pdb import sys sys.path.append(os.path.join(os.getcwd(), ".")) sys.path.append(os.path.join(os.getcwd(), ".."))
18.125
48
0.689655
25
145
4
0.32
0.18
0.26
0.3
0.62
0.62
0.62
0.62
0
0
0
0
0.089655
145
7
49
20.714286
0.757576
0
0
0
0
0
0.02069
0
0
0
0
0
0
1
0
true
0
0.666667
0
0.666667
0
1
0
0
null
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
f55646d0a45531f4886fe532b0ac3aa4708ee245
12,427
py
Python
src/aws_lambda/data_analysis_imdb_query.py
joshch1630/movie_data_platform
247a17b69703076f3b422d1bb811a409c0fa1e10
[ "MIT" ]
null
null
null
src/aws_lambda/data_analysis_imdb_query.py
joshch1630/movie_data_platform
247a17b69703076f3b422d1bb811a409c0fa1e10
[ "MIT" ]
null
null
null
src/aws_lambda/data_analysis_imdb_query.py
joshch1630/movie_data_platform
247a17b69703076f3b422d1bb811a409c0fa1e10
[ "MIT" ]
null
null
null
IMDB_DATA_TYPE = "imdb_type" IMDB_QUERY_DICT_LIST = [] ########################### ########### Year ########## ########################### # by year GET_BY_YEAR_IMDB_QUERY = """ SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" GROUP BY startyear ORDER BY startyear; """ BY_YEAR_IMDB_DICT = { "data_title": "imdb_by_year", "data_type": IMDB_DATA_TYPE, "query": GET_BY_YEAR_IMDB_QUERY, "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(BY_YEAR_IMDB_DICT) # is adult by year GET_IS_ADULT_BY_YEAR_IMDB_QUERY = """ SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" WHERE isadult = true GROUP BY startyear ORDER BY startyear; """ IS_ADULT_BY_YEAR_IMDB_DICT = { "data_title": "imdb_is_adult_by_year", "data_type": IMDB_DATA_TYPE, "query": GET_IS_ADULT_BY_YEAR_IMDB_QUERY, "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(IS_ADULT_BY_YEAR_IMDB_DICT) # rating by year for i in range(0, 10): GET_RATING_BY_YEAR_IMDB_QUERY = """ SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" WHERE averagerating >= {} AND averagerating < {} GROUP BY startyear ORDER BY startyear; """ RATING_BY_YEAR_IMDB_DICT = { "data_title": "imdb_rating_{}_to_{}_by_year".format(i, i+1), "data_type": IMDB_DATA_TYPE, "query": GET_RATING_BY_YEAR_IMDB_QUERY.format(i, i+1), "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(RATING_BY_YEAR_IMDB_DICT) # genres by year GENRES_LIST = ["Action", "Adventure", "Animation", "Biography", "Comedy", "Crime", "Documentary", "Drama", "Family", "Fantasy", "Film-Noir", "History", "Horror", "Music", "Musical", "Mystery", "Romance", "Sci-Fi", "Sport", "Thriller", "War", "Western"] for genres in GENRES_LIST: GET_GENRES_BY_YEAR_IMDB_QUERY = """ SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" WHERE genres_1 = '{}' OR genres_2 = '{}' OR genres_3 = '{}' GROUP BY startyear ORDER BY startyear; """ GENRES_BY_YEAR_IMDB_DICT = { "data_title": "imdb_genres_{}_by_year".format(genres), "data_type": IMDB_DATA_TYPE, "query": GET_GENRES_BY_YEAR_IMDB_QUERY.format(genres, genres, genres), "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(GENRES_BY_YEAR_IMDB_DICT) ########################### ########## Rating ######### ########################### # by rating GET_BY_RATING_IMDB_QUERY = """ SELECT CASE WHEN averagerating >= 9 AND averagerating <= 10 THEN '9-10' WHEN averagerating >= 8 AND averagerating < 9 THEN '8-9' WHEN averagerating >= 7 AND averagerating < 8 THEN '7-8' WHEN averagerating >= 6 AND averagerating < 7 THEN '6-7' WHEN averagerating >= 5 AND averagerating < 6 THEN '5-6' WHEN averagerating >= 4 AND averagerating < 5 THEN '4-5' WHEN averagerating >= 3 AND averagerating < 4 THEN '3-4' WHEN averagerating >= 2 AND averagerating < 3 THEN '2-3' WHEN averagerating >= 1 AND averagerating < 2 THEN '1-2' WHEN averagerating >= 0 AND averagerating < 1 THEN '0-1' ELSE 'NA' END AS rating, COUNT(1) AS movie_count, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" GROUP BY 1 ORDER BY 1; """ BY_RATING_IMDB_DICT = { "data_title": "imdb_by_rating", "data_type": IMDB_DATA_TYPE, "query": GET_BY_RATING_IMDB_QUERY, "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(BY_RATING_IMDB_DICT) # is adult by rating GET_IS_ADULT_BY_RATING_IMDB_QUERY = """ SELECT CASE WHEN averagerating >= 9 AND averagerating <= 10 THEN '9-10' WHEN averagerating >= 8 AND averagerating < 9 THEN '8-9' WHEN averagerating >= 7 AND averagerating < 8 THEN '7-8' WHEN averagerating >= 6 AND averagerating < 7 THEN '6-7' WHEN averagerating >= 5 AND averagerating < 6 THEN '5-6' WHEN averagerating >= 4 AND averagerating < 5 THEN '4-5' WHEN averagerating >= 3 AND averagerating < 4 THEN '3-4' WHEN averagerating >= 2 AND averagerating < 3 THEN '2-3' WHEN averagerating >= 1 AND averagerating < 2 THEN '1-2' WHEN averagerating >= 0 AND averagerating < 1 THEN '0-1' ELSE 'NA' END AS rating, COUNT(1) AS movie_count, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" WHERE isadult = true GROUP BY 1 ORDER BY 1; """ IS_ADULT_BY_RATING_IMDB_DICT = { "data_title": "imdb_is_adult_by_rating", "data_type": IMDB_DATA_TYPE, "query": GET_IS_ADULT_BY_RATING_IMDB_QUERY, "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(IS_ADULT_BY_RATING_IMDB_DICT) # genres by rating GENRES_LIST = ["Action", "Adventure", "Animation", "Biography", "Comedy", "Crime", "Documentary", "Drama", "Family", "Fantasy", "Film-Noir", "History", "Horror", "Music", "Musical", "Mystery", "Romance", "Sci-Fi", "Sport", "Thriller", "War", "Western"] for genres in GENRES_LIST: GET_GENRES_BY_RATING_IMDB_QUERY = """ SELECT CASE WHEN averagerating >= 9 AND averagerating <= 10 THEN '9-10' WHEN averagerating >= 8 AND averagerating < 9 THEN '8-9' WHEN averagerating >= 7 AND averagerating < 8 THEN '7-8' WHEN averagerating >= 6 AND averagerating < 7 THEN '6-7' WHEN averagerating >= 5 AND averagerating < 6 THEN '5-6' WHEN averagerating >= 4 AND averagerating < 5 THEN '4-5' WHEN averagerating >= 3 AND averagerating < 4 THEN '3-4' WHEN averagerating >= 2 AND averagerating < 3 THEN '2-3' WHEN averagerating >= 1 AND averagerating < 2 THEN '1-2' WHEN averagerating >= 0 AND averagerating < 1 THEN '0-1' ELSE 'NA' END AS rating, COUNT(1) AS movie_count, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" WHERE genres_1 = '{}' OR genres_2 = '{}' OR genres_3 = '{}' GROUP BY 1 ORDER BY 1; """ GENRES_BY_RATING_IMDB_DICT = { "data_title": "imdb_genres_{}_by_rating".format(genres), "data_type": IMDB_DATA_TYPE, "query": GET_GENRES_BY_RATING_IMDB_QUERY.format(genres, genres, genres), "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(GENRES_BY_RATING_IMDB_DICT) ########################### ########## Genres ######### ########################### # by genres GET_BY_GENRES_IMDB_QUERY = """ SELECT CASE WHEN genres_1 = 'Action' OR genres_2 = 'Action' OR genres_3 = 'Action' THEN 'Action' WHEN genres_1 = 'Adventure' OR genres_2 = 'Adventure' OR genres_3 = 'Adventure' THEN 'Adventure' WHEN genres_1 = 'Animation' OR genres_2 = 'Animation' OR genres_3 = 'Animation' THEN 'Animation' WHEN genres_1 = 'Biography' OR genres_2 = 'Biography' OR genres_3 = 'Biography' THEN 'Biography' WHEN genres_1 = 'Comedy' OR genres_2 = 'Comedy' OR genres_3 = 'Comedy' THEN 'Comedy' WHEN genres_1 = 'Crime' OR genres_2 = 'Crime' OR genres_3 = 'Crime' THEN 'Crime' WHEN genres_1 = 'Documentary' OR genres_2 = 'Documentary' OR genres_3 = 'Documentary' THEN 'Documentary' WHEN genres_1 = 'Drama' OR genres_2 = 'Drama' OR genres_3 = 'Drama' THEN 'Drama' WHEN genres_1 = 'Family' OR genres_2 = 'Family' OR genres_3 = 'Family' THEN 'Family' WHEN genres_1 = 'Fantasy' OR genres_2 = 'Fantasy' OR genres_3 = 'Fantasy' THEN 'Fantasy' WHEN genres_1 = 'Film-Noir' OR genres_2 = 'Film-Noir' OR genres_3 = 'Film-Noir' THEN 'Film-Noir' WHEN genres_1 = 'History' OR genres_2 = 'History' OR genres_3 = 'History' THEN 'History' WHEN genres_1 = 'Horror' OR genres_2 = 'Horror' OR genres_3 = 'Horror' THEN 'Horror' WHEN genres_1 = 'Music' OR genres_2 = 'Music' OR genres_3 = 'Music' THEN 'Music' WHEN genres_1 = 'Musical' OR genres_2 = 'Musical' OR genres_3 = 'Musical' THEN 'Musical' WHEN genres_1 = 'Mystery' OR genres_2 = 'Mystery' OR genres_3 = 'Mystery' THEN 'Mystery' WHEN genres_1 = 'Romance' OR genres_2 = 'Romance' OR genres_3 = 'Romance' THEN 'Romance' WHEN genres_1 = 'Sci-Fi' OR genres_2 = 'Sci-Fi' OR genres_3 = 'Sci-Fi' THEN 'Sci-Fi' WHEN genres_1 = 'Sport' OR genres_2 = 'Sport' OR genres_3 = 'Sport' THEN 'Sport' WHEN genres_1 = 'Thriller' OR genres_2 = 'Thriller' OR genres_3 = 'Thriller' THEN 'Thriller' WHEN genres_1 = 'War' OR genres_2 = 'War' OR genres_3 = 'War' THEN 'War' WHEN genres_1 = 'Western' OR genres_2 = 'Western' OR genres_3 = 'Western' THEN 'Western' ELSE 'NA' END AS genre, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" GROUP BY 1 ORDER BY 1; """ BY_GENRES_IMDB_DICT = { "data_title": "imdb_by_genres", "data_type": IMDB_DATA_TYPE, "query": GET_BY_GENRES_IMDB_QUERY, "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(BY_GENRES_IMDB_DICT) # is adult by genres GET_IS_ADULT_BY_GENRES_IMDB_QUERY = """ SELECT CASE WHEN genres_1 = 'Action' OR genres_2 = 'Action' OR genres_3 = 'Action' THEN 'Action' WHEN genres_1 = 'Adventure' OR genres_2 = 'Adventure' OR genres_3 = 'Adventure' THEN 'Adventure' WHEN genres_1 = 'Animation' OR genres_2 = 'Animation' OR genres_3 = 'Animation' THEN 'Animation' WHEN genres_1 = 'Biography' OR genres_2 = 'Biography' OR genres_3 = 'Biography' THEN 'Biography' WHEN genres_1 = 'Comedy' OR genres_2 = 'Comedy' OR genres_3 = 'Comedy' THEN 'Comedy' WHEN genres_1 = 'Crime' OR genres_2 = 'Crime' OR genres_3 = 'Crime' THEN 'Crime' WHEN genres_1 = 'Documentary' OR genres_2 = 'Documentary' OR genres_3 = 'Documentary' THEN 'Documentary' WHEN genres_1 = 'Drama' OR genres_2 = 'Drama' OR genres_3 = 'Drama' THEN 'Drama' WHEN genres_1 = 'Family' OR genres_2 = 'Family' OR genres_3 = 'Family' THEN 'Family' WHEN genres_1 = 'Fantasy' OR genres_2 = 'Fantasy' OR genres_3 = 'Fantasy' THEN 'Fantasy' WHEN genres_1 = 'Film-Noir' OR genres_2 = 'Film-Noir' OR genres_3 = 'Film-Noir' THEN 'Film-Noir' WHEN genres_1 = 'History' OR genres_2 = 'History' OR genres_3 = 'History' THEN 'History' WHEN genres_1 = 'Horror' OR genres_2 = 'Horror' OR genres_3 = 'Horror' THEN 'Horror' WHEN genres_1 = 'Music' OR genres_2 = 'Music' OR genres_3 = 'Music' THEN 'Music' WHEN genres_1 = 'Musical' OR genres_2 = 'Musical' OR genres_3 = 'Musical' THEN 'Musical' WHEN genres_1 = 'Mystery' OR genres_2 = 'Mystery' OR genres_3 = 'Mystery' THEN 'Mystery' WHEN genres_1 = 'Romance' OR genres_2 = 'Romance' OR genres_3 = 'Romance' THEN 'Romance' WHEN genres_1 = 'Sci-Fi' OR genres_2 = 'Sci-Fi' OR genres_3 = 'Sci-Fi' THEN 'Sci-Fi' WHEN genres_1 = 'Sport' OR genres_2 = 'Sport' OR genres_3 = 'Sport' THEN 'Sport' WHEN genres_1 = 'Thriller' OR genres_2 = 'Thriller' OR genres_3 = 'Thriller' THEN 'Thriller' WHEN genres_1 = 'War' OR genres_2 = 'War' OR genres_3 = 'War' THEN 'War' WHEN genres_1 = 'Western' OR genres_2 = 'Western' OR genres_3 = 'Western' THEN 'Western' ELSE 'NA' END AS genre, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count FROM "movie_database_platform"."imdb_title_basics_ratings" WHERE isadult = true GROUP BY 1 ORDER BY 1; """ IS_ADULT_BY_GENRES_IMDB_DICT = { "data_title": "imdb_is_adult_by_genres", "data_type": IMDB_DATA_TYPE, "query": GET_IS_ADULT_BY_GENRES_IMDB_QUERY, "query_execution_id": "", "is_completed": False, "result_data": {} } IMDB_QUERY_DICT_LIST.append(IS_ADULT_BY_GENRES_IMDB_DICT)
44.067376
139
0.672085
1,793
12,427
4.373675
0.050753
0.093854
0.052793
0.021678
0.975516
0.962255
0.928972
0.896327
0.885616
0.869294
0
0.029333
0.19345
12,427
282
140
44.067376
0.753068
0.012151
0
0.768924
0
0.191235
0.772124
0.063756
0
0
0
0
0
1
0
false
0
0
0
0
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
1949af54c77b104f66a842c8a519bea3177c2b4e
35
py
Python
PythonExercicios/ex001.py
lordvinick/Python
c03fd08d4c204104bf0196b0bd129427fd2067ae
[ "MIT" ]
null
null
null
PythonExercicios/ex001.py
lordvinick/Python
c03fd08d4c204104bf0196b0bd129427fd2067ae
[ "MIT" ]
null
null
null
PythonExercicios/ex001.py
lordvinick/Python
c03fd08d4c204104bf0196b0bd129427fd2067ae
[ "MIT" ]
null
null
null
print("\033[32mOlá,mundo!\033[m")
11.666667
33
0.657143
6
35
3.833333
0.833333
0
0
0
0
0
0
0
0
0
0
0.242424
0.057143
35
2
34
17.5
0.454545
0
0
0
0
0
0.705882
0.705882
0
0
0
0
0
1
0
true
0
0
0
0
1
1
1
0
null
0
0
0
0
0
0
0
0
0
0
1
0
0
1
0
0
1
0
0
0
0
0
1
1
null
0
0
0
0
0
0
1
0
0
0
0
1
0
9
5ffdbb0290ca45b403f6793ef4a2afd061cb5219
89
py
Python
test/sourceRelated.py
hongyehu/NeuralRG
ff4eb18f7f9e083dac6f3da3995f3f69ecf381e8
[ "Apache-2.0" ]
65
2018-03-15T20:39:35.000Z
2022-03-11T22:38:24.000Z
test/sourceRelated.py
arita37/NeuralRG
ff4eb18f7f9e083dac6f3da3995f3f69ecf381e8
[ "Apache-2.0" ]
null
null
null
test/sourceRelated.py
arita37/NeuralRG
ff4eb18f7f9e083dac6f3da3995f3f69ecf381e8
[ "Apache-2.0" ]
19
2018-06-07T16:19:57.000Z
2021-02-26T08:36:43.000Z
import numpy as np from numpy.testing import assert_array_almost_equal,assert_array_equal
44.5
70
0.898876
15
89
5
0.666667
0.293333
0
0
0
0
0
0
0
0
0
0
0.078652
89
2
70
44.5
0.914634
0
0
0
0
0
0
0
0
0
0
0
0.5
1
0
true
0
1
0
1
0
1
0
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
1
0
0
1
0
1
0
1
0
0
7
274bbc3590a629d51c88b6554ffaa3021e5b5989
155
py
Python
loldib/getratings/models/NA/na_taliyah/__init__.py
koliupy/loldib
c9ab94deb07213cdc42b5a7c26467cdafaf81b7f
[ "Apache-2.0" ]
null
null
null
loldib/getratings/models/NA/na_taliyah/__init__.py
koliupy/loldib
c9ab94deb07213cdc42b5a7c26467cdafaf81b7f
[ "Apache-2.0" ]
null
null
null
loldib/getratings/models/NA/na_taliyah/__init__.py
koliupy/loldib
c9ab94deb07213cdc42b5a7c26467cdafaf81b7f
[ "Apache-2.0" ]
null
null
null
from .na_taliyah_top import * from .na_taliyah_jng import * from .na_taliyah_mid import * from .na_taliyah_bot import * from .na_taliyah_sup import *
25.833333
30
0.774194
25
155
4.4
0.36
0.272727
0.590909
0.690909
0
0
0
0
0
0
0
0
0.16129
155
5
31
31
0.846154
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
8
2786004eb6bb3bfd808b2df383268b407faadbaf
398
py
Python
composer/algorithms/selective_backprop/__init__.py
murthyn/composer
2a04cf387dd8558556500f7ef2bc6d3d131043d5
[ "Apache-2.0" ]
null
null
null
composer/algorithms/selective_backprop/__init__.py
murthyn/composer
2a04cf387dd8558556500f7ef2bc6d3d131043d5
[ "Apache-2.0" ]
null
null
null
composer/algorithms/selective_backprop/__init__.py
murthyn/composer
2a04cf387dd8558556500f7ef2bc6d3d131043d5
[ "Apache-2.0" ]
null
null
null
# Copyright 2021 MosaicML. All Rights Reserved. from composer.algorithms.selective_backprop.selective_backprop import SelectiveBackprop as SelectiveBackprop from composer.algorithms.selective_backprop.selective_backprop import select_using_loss as select_using_loss from composer.algorithms.selective_backprop.selective_backprop import \ should_selective_backprop as should_selective_backprop
56.857143
108
0.889447
47
398
7.234043
0.382979
0.4
0.194118
0.273529
0.547059
0.547059
0.547059
0.547059
0
0
0
0.010899
0.077889
398
6
109
66.333333
0.915531
0.113065
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
0.75
0
0.75
0
0
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
27c9f33ce7c930700e4526a10dcf616b03701194
158
py
Python
PBundler/entrypoints.py
fin/pbundler
2f46b05e767453eb3241900c1cba030e46d0a51c
[ "MIT" ]
1
2016-08-30T19:15:26.000Z
2016-08-30T19:15:26.000Z
PBundler/entrypoints.py
fin/pbundler
2f46b05e767453eb3241900c1cba030e46d0a51c
[ "MIT" ]
null
null
null
PBundler/entrypoints.py
fin/pbundler
2f46b05e767453eb3241900c1cba030e46d0a51c
[ "MIT" ]
null
null
null
from PBundler import * def pbcli(): return PBCli().run(sys.argv) def pbpy(): argv = [sys.argv[0], "py"] + sys.argv[1:] return PBCli().run(argv)
17.555556
45
0.594937
24
158
3.916667
0.541667
0.223404
0.297872
0
0
0
0
0
0
0
0
0.015873
0.202532
158
8
46
19.75
0.730159
0
0
0
0
0
0.012658
0
0
0
0
0
0
1
0.333333
false
0
0.166667
0.166667
0.833333
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
1
0
0
7
e31d5368d9b8362df6d737eb7e62585fd1c174da
76
py
Python
src/test.py
bbarnes52/serverless-ci-demo
9b2ebf5d35f910914671ffe80351e127ec7fba1b
[ "Apache-2.0" ]
null
null
null
src/test.py
bbarnes52/serverless-ci-demo
9b2ebf5d35f910914671ffe80351e127ec7fba1b
[ "Apache-2.0" ]
null
null
null
src/test.py
bbarnes52/serverless-ci-demo
9b2ebf5d35f910914671ffe80351e127ec7fba1b
[ "Apache-2.0" ]
null
null
null
"Simple hello world script.""" def hello_world(): return "Hello, world!"
15.2
30
0.684211
10
76
5.1
0.6
0.588235
0
0
0
0
0
0
0
0
0
0
0.157895
76
4
31
19
0.796875
0.342105
0
0
0
0
0.513158
0
0
0
0
0
0
1
0.333333
true
0
0
0.333333
0.666667
0
1
0
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
0
0
1
1
0
0
7
8be21059d4a8ab153ddd74b73c33f97460667853
113
py
Python
openselfsup/version.py
Berkeley-Data/OpenSelfSup
221191b88d891de57725b149caf237ffef72e529
[ "Apache-2.0" ]
null
null
null
openselfsup/version.py
Berkeley-Data/OpenSelfSup
221191b88d891de57725b149caf237ffef72e529
[ "Apache-2.0" ]
6
2021-03-11T05:35:54.000Z
2021-04-03T22:25:11.000Z
openselfsup/version.py
Berkeley-Data/OpenSelfSup
221191b88d891de57725b149caf237ffef72e529
[ "Apache-2.0" ]
1
2021-07-04T00:47:46.000Z
2021-07-04T00:47:46.000Z
# GENERATED VERSION FILE # TIME: Fri Mar 12 13:50:43 2021 __version__ = '0.3.0+30773fd' short_version = '0.3.0'
18.833333
32
0.699115
21
113
3.52381
0.714286
0.216216
0.243243
0.27027
0
0
0
0
0
0
0
0.242105
0.159292
113
5
33
22.6
0.536842
0.469027
0
0
1
0
0.315789
0
0
0
0
0
0
1
0
false
0
0
0
0
0
1
0
0
null
1
1
1
0
0
0
0
0
0
0
1
0
0
1
0
0
0
0
0
0
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
476ea19bcba67d0aeb4dfab19eb7bd605642bb3e
15,147
py
Python
equation_verification/sequential_model.py
ForoughA/recursiveMemNet
70b97e61b30758bf79f1e1e34168d7cffcbecc92
[ "MIT" ]
14
2019-11-17T19:26:48.000Z
2021-05-31T00:06:31.000Z
equation_verification/sequential_model.py
ForoughA/recursiveMemNet
70b97e61b30758bf79f1e1e34168d7cffcbecc92
[ "MIT" ]
null
null
null
equation_verification/sequential_model.py
ForoughA/recursiveMemNet
70b97e61b30758bf79f1e1e34168d7cffcbecc92
[ "MIT" ]
2
2020-04-25T13:02:05.000Z
2021-01-10T15:38:21.000Z
from collections import OrderedDict import sys import math import torch import torch.nn as nn import torch.nn.functional as F from torch.autograd import Variable from equation_verification.sequential_model_constants import VOCAB, SYMBOL_CLASSES from equation_verification.constants import UNARY_FNS, BINARY_FNS, NUMBER_ENCODER, \ NUMBER_DECODER, SYMBOL_ENCODER, CONSTANTS from equation_verification.dataset_loading import BinaryEqnTree class LSTMchain(torch.nn.Module): def __init__(self, num_hidden, dropout): super().__init__() self.layer = LSTMnode(num_hidden, num_hidden) setattr(self, NUMBER_ENCODER, nn.Sequential(OrderedDict([ ('linear1', nn.Linear(1, num_hidden)), ('sgmd1', nn.Sigmoid()), ('linear2', nn.Linear(num_hidden, num_hidden)), ('sgmd2', nn.Sigmoid()) ]))) setattr(self, NUMBER_DECODER, nn.Sequential(OrderedDict([ ('linear1', nn.Linear(num_hidden, num_hidden)), ('sgmd1', nn.Sigmoid()), ('linear2', nn.Linear(num_hidden, 1)), ]))) setattr(self, SYMBOL_ENCODER, nn.Embedding(num_embeddings=len(VOCAB), embedding_dim=num_hidden)) self.bias = nn.Parameter(torch.FloatTensor([0])) self.num_hidden = num_hidden self.dropout = dropout def forward(self, tree, hidden, trace=None): """ hidden is a tuple of hidden state and memory hidden = (h, c) """ # print('modules:', self._modules) # if not tree.is_leaf and tree.function_name not in self._modules: # raise AssertionError("Unknown functional node: %s" % tree.function_name) nn_block = getattr(self, SYMBOL_ENCODER) if tree.is_binary: root_value = VOCAB['Binary_'+tree.function_name] root_encoded_value = Variable(torch.LongTensor([root_value])[0]) inp = nn_block(root_encoded_value) h, c = self.layer(inp, hidden, dropout=self.dropout) parentheses_value_l = VOCAB['parentheses_('] left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0]) inp = nn_block(left_parentheses) h,c = self.layer(inp, (h,c), dropout=self.dropout) hl, cl = self(tree.lchild, (h,c), trace=trace.lchild if trace else None) comma_value = VOCAB['parentheses_,'] comma = Variable(torch.LongTensor([comma_value])[0]) inp = nn_block(comma) h, c = self.layer(inp, (hl,cl), dropout=self.dropout) hr, cr = self(tree.rchild, (h,c), trace=trace.rchild if trace else None) parentheses_value_r = VOCAB['parentheses_)'] right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0]) inp = nn_block(right_parentheses) h, c = self.layer(inp, (hr, cr), dropout=self.dropout) return h, c elif tree.is_unary: if tree.function_name in {NUMBER_DECODER, NUMBER_ENCODER, SYMBOL_ENCODER}: hl, _ = self(tree.lchild, hidden, trace=trace.lchild if trace else None) nn_block = getattr(self, tree.function_name) inp = nn_block(hl) h,c = self.layer(inp, hidden, dropout=self.dropout) else: root_value = VOCAB['Unary_'+tree.function_name] root_encoded_value = Variable(torch.LongTensor([root_value])[0]) inp = nn_block(root_encoded_value) h, c = self.layer(inp, hidden, dropout=self.dropout) parentheses_value_l = VOCAB['parentheses_('] left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0]) inp = nn_block(left_parentheses) h,c = self.layer(inp, (h,c), dropout=self.dropout) hl, cl = self(tree.lchild, (h,c), trace=trace.lchild if trace else None) parentheses_value_r = VOCAB['parentheses_)'] right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0]) inp = nn_block(right_parentheses) h, c = self.layer(inp, (hl, cl), dropout=self.dropout) return h, c elif tree.is_leaf: c = Variable(torch.LongTensor([0] * self.num_hidden)) if trace: trace.output = tree.encoded_value.tolist() trace.memory = c.tolist() return tree.encoded_value, c else: raise RuntimeError("Invalid tree:\n%s" % repr(self)) def compute_batch(self, batch, trace=None): record = [] total_loss = 0 for tree, label, depth in batch: if trace is not None: trace_item = eval(repr(tree)) trace.append(trace_item) else: trace_item = None hl = Variable(torch.FloatTensor([0] * self.num_hidden)) cl = Variable(torch.FloatTensor([0] * self.num_hidden)) lchild, _ = self(tree.lchild, (hl,cl), trace=trace_item.lchild if trace else None) hr = Variable(torch.FloatTensor([0] * self.num_hidden)) cr = Variable(torch.FloatTensor([0] * self.num_hidden)) rchild, _ = self(tree.rchild, (hr, cr), trace=trace_item.rchild if trace else None) if tree.is_numeric(): assert (tree.lchild.is_a_floating_point and tree.rchild.function_name == NUMBER_DECODER) \ or (tree.rchild.is_a_floating_point and tree.lchild.function_name == NUMBER_DECODER) loss = (lchild - rchild) * (lchild - rchild) correct = math.isclose(lchild.item(), rchild.item(), rel_tol=1e-3) if trace_item is not None: trace_item.probability = lchild.item() else: out = torch.cat((Variable(torch.FloatTensor([0])), torch.dot(lchild, rchild).unsqueeze(0) + self.bias), dim=0) loss = - F.log_softmax(out)[round(label.item())] correct = F.softmax(out)[round(label.item())].item() > 0.5 if trace_item is not None: trace_item.probability = F.softmax(out)[1].item() trace_item.correct = correct trace_item.bias = self.bias.tolist() assert isinstance(correct, bool) record.append({ "ex": tree, "label": round(label.item()), "loss": loss.item(), "correct": correct, "depth": depth, "score": out[1].item() # WARNING: only works for symbolic data }) total_loss += loss return record, total_loss / len(batch) class LSTMnode(torch.nn.Module): def __init__(self, num_input, num_hidden): super().__init__() self.data = nn.Linear(num_input*2, num_hidden, bias=True) self.forget = nn.Linear(num_input*2, num_hidden, bias=True) self.output = nn.Linear(num_input*2, num_hidden, bias=True) self.input = nn.Linear(num_input*2, num_hidden, bias=True) def forward(self, inp, hidden, trace=None, dropout=None): """ Args: inp : (num_hidden,) hidden: ((num_hidden,), (num_hidden,)) Returns: (num_hidden,), (num_hidden) """ h, c = hidden h = torch.cat((h, inp), dim=0) i = F.sigmoid(self.data(h)) f = F.sigmoid(self.forget(h)) o = F.sigmoid(self.output(h)) u = F.tanh(self.input(h)) if dropout is None: c = i * u + f * c else: c = i * F.dropout(u,p=dropout,training=self.training) + f * c h = o * F.tanh(c) if trace: trace.output = h.tolist() trace.memory = c.tolist() trace.i = [f.tolist()] return h, c class RNNchain(torch.nn.Module): def __init__(self, num_hidden, dropout): super().__init__() self.layer = nn.Linear(2*num_hidden, num_hidden) self.act1 = nn.Sigmoid() self.layer2 = nn.Linear(num_hidden,num_hidden) self.act2 = nn.Sigmoid() setattr(self, NUMBER_ENCODER, nn.Sequential(OrderedDict([ ('linear1', nn.Linear(1, num_hidden)), ('sgmd1', nn.Sigmoid()), ('linear2', nn.Linear(num_hidden, num_hidden)), ('sgmd2', nn.Sigmoid()) ]))) setattr(self, NUMBER_DECODER, nn.Sequential(OrderedDict([ ('linear1', nn.Linear(num_hidden, num_hidden)), ('sgmd1', nn.Sigmoid()), ('linear2', nn.Linear(num_hidden, 1)), ]))) setattr(self, SYMBOL_ENCODER, nn.Embedding(num_embeddings=len(VOCAB), embedding_dim=num_hidden)) self.bias = nn.Parameter(torch.FloatTensor([0])) self.num_hidden = num_hidden self.dropout = dropout def forward(self, tree, hidden, trace=None): """ hidden is the hidden state hidden = h """ # print('modules:', self._modules) # if not tree.is_leaf and tree.function_name not in self._modules: # raise AssertionError("Unknown functional node: %s" % tree.function_name) nn_block = getattr(self, SYMBOL_ENCODER) if tree.is_binary: root_value = VOCAB['Binary_'+tree.function_name] root_encoded_value = Variable(torch.LongTensor([root_value])[0]) inp = nn_block(root_encoded_value) inp = torch.cat((inp,hidden),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) parentheses_value_l = VOCAB['parentheses_('] left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0]) inp = nn_block(left_parentheses) inp = torch.cat((inp,h),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) hl = self(tree.lchild, h, trace=trace.lchild if trace else None) comma_value = VOCAB['parentheses_,'] comma = Variable(torch.LongTensor([comma_value])[0]) inp = nn_block(comma) inp = torch.cat((inp,hl),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) hr = self(tree.rchild, h, trace=trace.rchild if trace else None) parentheses_value_r = VOCAB['parentheses_)'] right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0]) inp = nn_block(right_parentheses) inp = torch.cat((inp,hr),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) return h elif tree.is_unary: if tree.function_name in {NUMBER_DECODER, NUMBER_ENCODER, SYMBOL_ENCODER}: hl = self(tree.lchild, hidden, trace=trace.lchild if trace else None) nn_block = getattr(self, tree.function_name) inp = nn_block(hl) inp = torch.cat((inp,hidden),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) else: root_value = VOCAB['Unary_'+tree.function_name] root_encoded_value = Variable(torch.LongTensor([root_value])[0]) inp = nn_block(root_encoded_value) inp = torch.cat((inp,hidden),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) parentheses_value_l = VOCAB['parentheses_('] left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0]) inp = nn_block(left_parentheses) inp = torch.cat((inp,h),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) hl = self(tree.lchild, h, trace=trace.lchild if trace else None) parentheses_value_r = VOCAB['parentheses_)'] right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0]) inp = nn_block(right_parentheses) inp = torch.cat((inp,hl),dim=0) h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training)) return h elif tree.is_leaf: if trace: trace.output = tree.encoded_value.tolist() #trace.memory = c.tolist() return tree.encoded_value else: raise RuntimeError("Invalid tree:\n%s" % repr(self)) def compute_batch(self, batch, trace=None): record = [] total_loss = 0 for tree, label, depth in batch: if trace is not None: trace_item = eval(repr(tree)) trace.append(trace_item) else: trace_item = None hl = Variable(torch.FloatTensor([0] * self.num_hidden)) lchild = self(tree.lchild, hl, trace=trace_item.lchild if trace else None) lchild = self.act2(F.dropout(self.layer2(lchild),p=self.dropout,training=self.training)) hr = Variable(torch.FloatTensor([0] * self.num_hidden)) rchild = self(tree.rchild, hr, trace=trace_item.rchild if trace else None) rchild = self.act2(F.dropout(self.layer2(rchild),p=self.dropout,training=self.training)) if tree.is_numeric(): assert (tree.lchild.is_a_floating_point and tree.rchild.function_name == NUMBER_DECODER) \ or (tree.rchild.is_a_floating_point and tree.lchild.function_name == NUMBER_DECODER) loss = (lchild - rchild) * (lchild - rchild) correct = math.isclose(lchild.item(), rchild.item(), rel_tol=1e-3) if trace_item is not None: trace_item.probability = lchild.item() else: out = torch.cat((Variable(torch.FloatTensor([0])), torch.dot(lchild, rchild).unsqueeze(0) + self.bias), dim=0) loss = - F.log_softmax(out)[round(label.item())] correct = F.softmax(out)[round(label.item())].item() > 0.5 if trace_item is not None: trace_item.probability = F.softmax(out)[1].item() trace_item.correct = correct trace_item.bias = self.bias.tolist() assert isinstance(correct, bool) record.append({ "ex": tree, "label": round(label.item()), "loss": loss.item(), "correct": correct, "depth": depth, "score": out[1].item() # WARNING: only works for symbolic data }) total_loss += loss return record, total_loss / len(batch)
42.909348
126
0.569156
1,799
15,147
4.625903
0.093941
0.046503
0.019226
0.018505
0.877914
0.870824
0.857606
0.850276
0.828407
0.814468
0
0.008622
0.310821
15,147
352
127
43.03125
0.788581
0.044035
0
0.8
0
0
0.02316
0
0
0
0
0
0.014815
1
0.02963
false
0
0.037037
0
0.111111
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
4781340f13a95a3b35f233f7243e069cdc20b73d
482
py
Python
utils/movement.py
Mordrog/pyarcanoid
0f5ef282edd2557e32bc4fc0aadd8c53ac825a33
[ "MIT" ]
null
null
null
utils/movement.py
Mordrog/pyarcanoid
0f5ef282edd2557e32bc4fc0aadd8c53ac825a33
[ "MIT" ]
null
null
null
utils/movement.py
Mordrog/pyarcanoid
0f5ef282edd2557e32bc4fc0aadd8c53ac825a33
[ "MIT" ]
null
null
null
def is_moving_top_right(velocity): return velocity.x > 0 and velocity.y < 0 def is_moving_bottom_right(velocity): return velocity.x > 0 and velocity.y > 0 def is_moving_bottom_left(velocity): return velocity.x < 0 and velocity.y > 0 def is_moving_top_left(velocity): return velocity.x < 0 and velocity.y < 0 def is_moving_vertically(velocity): return velocity.y != 0 def is_moving_horizontally(velocity): return velocity.x != 0
21.909091
45
0.697095
74
482
4.324324
0.202703
0.09375
0.20625
0.359375
0.834375
0.759375
0.69375
0.69375
0.69375
0.69375
0
0.026596
0.219917
482
22
46
21.909091
0.824468
0
0
0
0
0
0
0
0
0
0
0
0
1
0.5
false
0
0
0.5
1
0
0
0
0
null
0
1
1
1
1
0
0
0
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
0
0
0
7
9a3a6cde3e4f18a32adccdf24612fb0003d4470c
577,331
py
Python
hd_film_cehennemi_yorum_analizi.py
blackglowen/FilmCehennemiYorumAnalizi
5a8b623fb098765f1b975dd3fa6cfc828b19866f
[ "MIT" ]
null
null
null
hd_film_cehennemi_yorum_analizi.py
blackglowen/FilmCehennemiYorumAnalizi
5a8b623fb098765f1b975dd3fa6cfc828b19866f
[ "MIT" ]
null
null
null
hd_film_cehennemi_yorum_analizi.py
blackglowen/FilmCehennemiYorumAnalizi
5a8b623fb098765f1b975dd3fa6cfc828b19866f
[ "MIT" ]
null
null
null
import requests from bs4 import BeautifulSoup import io """ yapılan işlemler kısaca; sunulan seçeneklerden biri seçilince o film türü için senaryo başlar. bu senaryoda film türünün bulunduğu sayfaya gider ve oradaki film adları çekilir. sürekli güncellemelere karşılık film sayfalarında artış veya azalış olabilir. o yüzden bunun otomatik olarak program tarafında güncellenmesi gerkir. bunun için çekilen film türü sayfasında en altta bulunan sayfa numaraları kısmında en son sayfaya gidilerek oradaki web adresinden sayfa numarası page/7 şeklinde bulunan 7 kısmı alınır. bu bizim web adresinin kaç sayfadan oluştuğunu gösterir. ve bu bir for döngüsü içine aktarılarak film adları bir listeye eklenince sayfa sayısı kadar dolaşır yani bütün sayfaları dolaşır ve var olan bütün filmler listmeize eklenmiş olur. burda iki liste oluşturulur. birincisi film adlarının '-' olmadan ki halidir. ikincisi ise web adresine eklenecek olan ve içinde '-' karakteri olan listedir. birinci liste içinde bir kaç işlem olur bunlardan bir tanesi web adresinden film adı çekilirken şu gelirdi. slate izle kullanıcı izle ekini/kelimesini yazmayacağı için bunun kaldırılması için bir işlemden geçirilir. bunun yanında girilen isim büyük harfle yazılmışsa eğer hepsini küçük harflere çevirir. çünkü kullanıcı yanlışlıkla bir harfi büyük yazarsa bile program aksamadan direk çalışmaya devam eder. daha sonra bizden bir film adı girmemiz istenir. girilen film adı bizim elimizde bulunan birinci liste içinde aranır bulunduğu zaman da web adresine eklenecek olan ek kısmı için bir atama gerçekleştirilir. daha sonra o ek eklendikten sonra da o film adresine gidilir. ve filmin videosunun bulundğu sayfaya giderek orada yorum kısmı çekilir. çekilen kısımda bir hata olabilir o da filmin yorumsuz olmasıdır. yorumsuz olduğu zaman <ol class... kısmı olmaz o yüzden bool ifadesinin içinde bir <ol class... olup olmadığı kontrol edilir. içi boş ise eğer bir hata mesajı verir ve programdan çıkılır. eğer yorum varsa da o yorum kısmı çekilerek oradaki text ifadeleri çekilir ve yorumlama metoduna parametreler ile gönderilerek yorumun olumlu ve olumsuz olması araştırrlır ve bir çıktı elde edilir. önemli not: filmin çekileceği sitede eğer ki yorumlar tırnak işareti içerisinde bulunuyor ise türkçe karakter hatası verir. yani kelimeleri ,harfleri düzgün çekemeyiz. eğer ki tırnak içerisinde değilse kelimeleri türkçe karakter içerse bile hata vermeden olduğu gibi çekebiliriz. hdfilmcehennemi sitesinde tırnak işareti içinde olduğu için hata aldık. filmmodunda ise öyle olmadığı için hata almadık o yüzden ikisi için de tanımlayabilmesi için ayrı aryı kodlar yazacağız. """ class Analiz(): def web_kismi(self): girilen=input("lütfen bir tür seçiniz....") film_nesnesi=film_turleri() girilen=str(girilen) #tip dönüşümü yaptım çünkü sayısal bir değer girilebilir. program hata vermesin diye string tipine dönüştürdük. if girilen=="2000 ve öncesi": film_nesnesi.ikibin_ve_oncesi_filmleri() elif girilen=="2001": film_nesnesi.ikibin_bir_filmleri() elif girilen=="2002": film_nesnesi.ikibin_iki_filmleri() elif girilen=="2003": film_nesnesi.ikibin_uc_filmleri() elif girilen=="2004": film_nesnesi.ikibin_dort_filmleri() elif girilen=="2005": film_nesnesi.ikibin_bes_filmleri() elif girilen=="2006": film_nesnesi.ikibin_alti_filmleri() elif girilen=="2007": film_nesnesi.ikibin_yedi_filmleri() elif girilen=="2008": film_nesnesi.ikibin_sekiz_filmleri() elif girilen=="2009": film_nesnesi.ikibin_dokuz_filmleri() elif girilen=="2010": film_nesnesi.ikibin_on_filmleri() elif girilen=="2011": film_nesnesi.ikibin_on_bir_filmleri() elif girilen=="2012": film_nesnesi.ikibin_on_iki_filmleri() elif girilen=="2013": film_nesnesi.ikibin_on_uc_filmleri() elif girilen=="2014": film_nesnesi.ikibin_on_dort_filmleri() elif girilen=="2015": film_nesnesi.ikibin_on_bes_filmleri() elif girilen=="2016": film_nesnesi.ikibin_on_alti_filmleri() elif girilen=="2017": film_nesnesi.ikibin_on_yedi_filmleri() elif girilen=="2018": film_nesnesi.ikibin_on_sekiz_filmleri() elif girilen=="2019": film_nesnesi.ikibin_on_dokuz_filmleri() elif girilen=="2020": film_nesnesi.ikibin_yirmi_filmleri() elif girilen=="2021": film_nesnesi.ikibin_yirmi_bir_filmleri() elif girilen=="aile": film_nesnesi.aile_filmleri() elif girilen=="aksiyon": film_nesnesi.aksiyon_filmleri() elif girilen=="animasyon": film_nesnesi.animasyon_filmleri() elif girilen=="belgesel": film_nesnesi.belgesel_filmleri() elif girilen=="bilim kurgu": film_nesnesi.bilim_kurgu_filmleri() elif girilen=="biyografi": film_nesnesi.biyografi_filmleri() elif girilen=="dini": film_nesnesi.dini_filmleri() elif girilen=="dram": film_nesnesi.dram_filmleri() elif girilen=="en iyi": film_nesnesi.en_iyi_filmleri() elif girilen=="fantastik": film_nesnesi.fantastik_filmleri() elif girilen=="gençlik": film_nesnesi.genclik_filmleri() elif girilen=="gerilim": film_nesnesi.gerilim_filmleri() elif girilen=="gizem": film_nesnesi.gizem_filmleri() elif girilen=="hint": film_nesnesi.hint_filmleri() elif girilen=="imdb": film_nesnesi.imdb_filmleri() elif girilen=="imdb top": film_nesnesi.imdb_top_filmleri() elif girilen=="komedi": film_nesnesi.komedi_filmleri() elif girilen=="kore": film_nesnesi.kore_filmleri() elif girilen=="korku": film_nesnesi.korku_filmleri() elif girilen=="macera": film_nesnesi.macera_filmleri() elif girilen=="marvel": film_nesnesi.marvel_filmleri() elif girilen=="muzikal": film_nesnesi.muzikal_filmleri() elif girilen=="polisiye": film_nesnesi.polisiye_filmleri() elif girilen=="psikolojik": film_nesnesi.psikolojik_filmleri() elif girilen=="romantik": film_nesnesi.romantik_filmleri() elif girilen=="savaş": film_nesnesi.savas_filmleri() elif girilen=="spor": film_nesnesi.spor_filmleri() elif girilen=="suç": film_nesnesi.suc_filmleri() elif girilen=="tarih": film_nesnesi.tarih_filmleri() elif girilen=="tavsiye": film_nesnesi.tavsiye_filmleri() elif girilen=="türk komedi": film_nesnesi.turk_komedi_filmleri() elif girilen=="western": film_nesnesi.western_filmleri() elif girilen=="yerli": film_nesnesi.yerli_filmleri() else : print("yanlış değer girildi..\n lütfen doğru yazınız...") tekrar=Analiz() tekrar.web_kismi() class film_turleri(): def ikibin_ve_oncesi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/eski-filmler' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/eski-filmler' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/eski-filmler/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum turkce_karakter_hatasi_var için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_bir_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2001-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2001-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2001-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_iki_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2002-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2002-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2002-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. print(len(film_adlari)) print("ilk film", film_adlari[0][0]) print("ilk film", film_adlari[5][17]) print(len(film_list_bir)) print(film_list_bir) print("girilen film adlari", girilen_film_adlari) print("girilen film adları boyutu:", len(girilen_film_adlari)) print("film adları=", film_adlari) print("film adları boyutu", len(film_adlari)) film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_uc_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2003-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2003-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2003-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_dort_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2004-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2004-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2004-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_bes_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2005-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2005-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2005-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_alti_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2006-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2006-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2006-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_yedi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2007-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2007-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2007-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_sekiz_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2008-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2008-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2008-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_dokuz_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2009-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2009-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2009-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2010-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2010-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2010-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_bir_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2011-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2011-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2011-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_iki_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2012-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2012-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2012-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_uc_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2013-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2013-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2013-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_dort_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2014-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2014-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2014-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_bes_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2015-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2015-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2015-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_alti_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2016-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2016-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2016-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_yedi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2017-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2017-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2017-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_sekiz_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2018-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2018-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2018-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_on_dokuz_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2019-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2019-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2019-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_yirmi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2020-filmleri-hd-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2020-filmleri-hd-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2020-filmleri-hd-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def ikibin_yirmi_bir_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2021-filmleri-fhd-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2021-filmleri-fhd-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2021-filmleri-fhd-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append( film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def aile_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aile-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aile-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aile-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def aksiyon_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aksiyon-film-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aksiyon-film-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aksiyon-film-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def animasyon_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/animasyon-film-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/animasyon-film-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/animasyon-film-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def belgesel_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/belgesel-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/belgesel-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/belgesel-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def bilim_kurgu_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/bilimkurgu-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/bilimkurgu-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/bilimkurgu-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def biyografi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/biyografi-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/biyografi-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/biyografi-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def dini_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. # buradaki if ve altında else kısmının amacı film türü girildiğinde sayfamız tek bir sayfadan oluşuyorsa yani altta bulunan sayfa numaraları kısmı yoksa if bloğu çalışır eğer sayfa numaraları kısmı varsa da else kısmı çalışır. if bool(sayfa_sayisi_gelen_veri) == False: print("sayfa adedi yoktur.") sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler/page/0' sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_adlari = [] girilen_film_adlari = [] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. else: sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range( len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = "20-yasinda-oleceksin-izle" # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. burada aslında film_adlari[m][i] şeklinde atama yapmamız lazım ama türkçe karakterden dolayı deneme amaçlı cagri-izle dedik. böylece kullanıcı çağrı girdiğinde program çalışır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. # filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else: # yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def dram_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dram-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dram-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dram-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def en_iyi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/en-iyi-filmler' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/en-iyi-filmler' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/en-iyi-filmler/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def fantastik_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/fantastik-film-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/fantastik-film-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/fantastik-film-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) #buraya fragmanlar da eklenebilir ama ben eklemedim.Sitede bu sırada böyle bir seçenek vardır. def genclik_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/genclik-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/genclik-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/genclik-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def gerilim_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gerilim-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gerilim-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gerilim-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def gizem_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gizem-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gizem-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gizem-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def hint_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/hint-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/hint-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/hint-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def imdb_filmleri(self): #imdb+7 filmleri içerir # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-7-ustu-filmler' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-7-ustu-filmler' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(3, len(sayfa_sayisi_listesi) + 1): # 3 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir.bir de tür adı içinde bir sayı daha vardır 7 onu almasın diye de 3 ten başlattık yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 3 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-7-ustu-filmler/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def imdb_top_filmleri(self):# imdb top 50 filmleri içerir. # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-top-250' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-top-250' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(5, len(sayfa_sayisi_listesi) + 1): # 5 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir.bir de tür adı içinde bir sayı daha vardır 250 onu almasın diye de 5 ten başlattık yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 5 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. içinde kaç tane sayı olursa olsun şunları almasını istemedik. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] print("sayfa", sayfa_sayisi) # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-top-250/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def komedi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/komedi-filmleri-izlee' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/komedi-filmleri-izlee' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/komedi-filmleri-izlee/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. print(girilen_film_adlari) film_adi = input("lütfen küçük harfler ile filmin adını giriniz....\n") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. # filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else: # yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) """ bu kısım elimizdeki yorumlar değişkeninde commentlist değeri var mıdır onun kontrolü yapılır. üst kısım ile aynıdır aslında bu farklı bir yöntemdir. degisken=yorumlar[0].get("class") #yorumlardaki class özelliğini alıyoruz. yorum olduğunda commentlist özelliği vardır. print("class değerleri",degisken) print(degisken[0]) if degisken[0]=="commentlist": #yorum olduğunda commentlist özelliği olur. yorum varsa burası çalışır. yorum olmadığında commentlist olmadığı için burası çalışmaz. print("doğru bulundu") """ ############################ def kore_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/kore-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/kore-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/kore-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....\n") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. # filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else: # yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) """ bu kısım elimizdeki yorumlar değişkeninde commentlist değeri var mıdır onun kontrolü yapılır. üst kısım ile aynıdır aslında bu farklı bir yöntemdir. degisken=yorumlar[0].get("class") #yorumlardaki class özelliğini alıyoruz. yorum olduğunda commentlist özelliği vardır. print("class değerleri",degisken) print(degisken[0]) if degisken[0]=="commentlist": #yorum olduğunda commentlist özelliği olur. yorum varsa burası çalışır. yorum olmadığında commentlist olmadığı için burası çalışmaz. print("doğru bulundu") """ def korku_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/korku-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/korku-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/korku-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def macera_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/macera-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/macera-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi",list) print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu",len(list)) for i in range(1,len(list)): if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" : sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak=[] for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı",sayfa_sayisi_liste_olarak) sayfa_sayisi="".join(sayfa_sayisi_liste_olarak) sayfa_sayisi=int(sayfa_sayisi) print("sayfa",sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/macera-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) def marvel_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/marvel-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/marvel-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/marvel-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def muzikal_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/muzikal-filmler' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/muzikal-filmler' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/muzikal-filmler/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def polisiye_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/polisiye-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/polisiye-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/polisiye-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def psikolojik_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/psikolojik-film-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/psikolojik-film-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/psikolojik-film-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def romantik_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/romantik-film' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/romantik-film' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/romantik-film/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append( film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def savas_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/savas-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/savas-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. if bool(sonuc_duzgun.find_all("div",{"class":"wp-pagenavi"}))==False: sayfa_sayisi=0 else: yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] print(list) list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/savas-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def spor_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/spor-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/spor-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/spor-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append( film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def suc_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/suc-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/suc-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/suc-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def tarih_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tarih-filmleri-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tarih-filmleri-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tarih-filmleri-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def tavsiye_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tavsiye-filmler-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tavsiye-filmler-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tavsiye-filmler-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def turk_komedi_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/turk-komedi-filmleri' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/turk-komedi-filmleri' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/turk-komedi-filmleri/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def western_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/western-film-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/western-film-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/western-film-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. #filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else :#yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) ############################ def yerli_filmleri(self): # bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir. ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/yerli-filmler-izle' sys = requests.get(ana_sayfa) soup = BeautifulSoup(sys.content, 'html.parser') sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/yerli-filmler-izle' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. print("yorumlar kısmı", yorumlar) print(type(yorumlar)) list = [] list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız. print("link adresi", list) print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir. sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı. print("list degerinin uzunluğu", len(list)) for i in range(1, len(list)): if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9": sayfa_sayisi_listesi.append(list[-i]) sayfa_sayisi_liste_olarak = [] for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i]) print(sayfa_sayisi_listesi) print("sayfa sayısı", sayfa_sayisi_liste_olarak) sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak) sayfa_sayisi = int(sayfa_sayisi) print("sayfa", sayfa_sayisi) film_adlari = [] girilen_film_adlari = [] # sayfalar arasında dolaşılan kısım sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu. for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi. sayfa_sayisi = str(i) sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/yerli-filmler-izle/page/' + sayfa_sayisi sys = requests.get(sayfa) soup = BeautifulSoup(sys.content, 'html.parser') gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim. list_sayfa_bir = [] for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın. list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik. toplam = 0 for i in range(len(list_sayfa_bir)): list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış. veri = list_sayfa_bir[0] film_list_bir = [] for i in range(len(list_sayfa_bir)): veri = list_sayfa_bir[i] for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır. sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur. veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar. film_list_bir.append(veri) film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun. girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu. # bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik. # film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek. for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler. for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır. girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır. # girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar. film_adi = input("lütfen küçük harfler ile filmin adını giriniz....\n") # dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı. for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş. if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır. film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın. # yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım. sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html' veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük. # filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır. if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar. print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...") else: # yorum yapıldıysa çalışacak olan kısım.. yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir. veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur. nesne = yorumlama() nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi) """ bu kısım elimizdeki yorumlar değişkeninde commentlist değeri var mıdır onun kontrolü yapılır. üst kısım ile aynıdır aslında bu farklı bir yöntemdir. degisken=yorumlar[0].get("class") #yorumlardaki class özelliğini alıyoruz. yorum olduğunda commentlist özelliği vardır. print("class değerleri",degisken) print(degisken[0]) if degisken[0]=="commentlist": #yorum olduğunda commentlist özelliği olur. yorum varsa burası çalışır. yorum olmadığında commentlist olmadığı için burası çalışmaz. print("doğru bulundu") """ ############################ class yorumlama(): def turkce_karakter_hatasi_olmadan(self,sayfa, veri, film_adi): toplam_olumlu = 0 toplam_olumsuz = 0 veri=veri.lower() for i in range(len(veri)): # film hakkında olumlu olabilecek kelimeleri içeriyorsa film hakkında olumlu yorum yapılmıştır. #türkçe karakter kullanılınca çeviricide hata olabiliyor. o yüzden bunları da tanımlamak lazım. kod bunları görünce anlaması gerekir. if veri[i] == "f" and (veri[i + 1] == "i" or veri[i + 1] == "ı") and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and (veri[i + 6] == "ü" or veri[i + 6] == "u")and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l" and veri[i + 10] == "d" and (veri[i + 11] == "i" or veri[i + 11] == "ı"): # film güzeldi toplam_olumlu += 1 if veri[i] == "d" and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "y" and veri[i + 3] == "g" and veri[i + 4] == "u" and veri[i + 5] == "l" and veri[i + 6] == "a" and veri[i + 7] == "n" and veri[i + 8] == "d" and (veri[i + 9] == "ı" or veri[i + 9] == "i") and veri[i + 10] == "m": # duygulandım toplam_olumlu += 1 if (veri[i] == "g" or veri[i] == "ğ") and (veri[i + 1] == "ü" or veri[i + 1] == "u") and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == "d" and (veri[i + 6] == "i" or veri[i + 6] == "ı"): # güzeldi toplam_olumlu += 1 if veri[i] == "h" and veri[i + 1] == "a" and veri[i + 2] == "r" and (veri[i + 3] == "i" or veri[i + 3] == "ı") and veri[i + 4] == "k" and veri[i + 5] == "a": # harika toplam_olumlu += 1 if veri[i] == "m" and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "z" and veri[i + 5] == "a" and veri[i + 6] == "m": # muazzam toplam_olumlu += 1 if veri[i] == "m" and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "a" and veri[i + 5] == "m": # muazam toplam_olumlu += 1 if (veri[i] == "ç" or veri[i] == "c") and veri[i + 1] == "o" and veri[i + 2] == "k" and veri[i + 3] == " " and veri[i + 4] == "g" and (veri[i + 5] == "ü" or veri[i + 5] == "u") and veri[i + 6] == "z" and veri[i + 7] == "e" and veri[i + 8] == "l": # çok güzel toplam_olumlu += 1 if veri[i] == "e" and (veri[i + 1] == "ğ" or veri[i + 1] == "g") and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "c" and veri[i + 6] == "e" and veri[i + 7] == "l" and (veri[i + 8] == "i" or veri[i + 8] == "ı"): # eğlenceli toplam_olumlu += 1 if (veri[i] == "s" or veri[i] == "ş") and (veri[i + 1] == "i" or veri[i + 1] == "ı") and (veri[i + 2] == "i" or veri[i + 2] == "ı") and veri[i + 3] == "r": # siir toplam_olumlu += 1 if veri[i] == "f" and (veri[i + 1] == "i" or veri[i + 1] == "ı") and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and (veri[i + 5] == "g" or veri[i + 5] == "ğ") and (veri[i + 6] == "u" or veri[i + 6] == "ü") and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l": # film guzel toplam_olumlu += 1 if veri[i] == "f" and (veri[i + 1] == "i" or veri[i + 1] == "ı") and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and (veri[i + 6] == "u" or veri[i + 6] == "ü") and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l" and veri[i + 10] == "d" and (veri[i + 11] == "i" or veri[i + 11] == "ı"): # film guzeldi toplam_olumlu += 1 if (veri[i] == "g" or veri[i] == "ğ") and (veri[i + 1] == "ü" or veri[i + 1] == "u") and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "f" and (veri[i + 7] == "i" or veri[i + 7] == "ı") and veri[i + 8] == "m": # güzel film toplam_olumlu += 1 if veri[i] == "t" and veri[i + 1] == "e" and (veri[i + 2] == "ş" or veri[i + 2] == "s") and veri[i + 3] == "e" and veri[i + 4] == "k" and veri[i + 5] == "k" and (veri[i + 6] == "ü" or veri[i + 6] == "u") and veri[i + 7] == "r": # teşekkür toplam_olumlu += 1 if veri[i] == "t" and veri[i + 1] == "e" and (veri[i + 2] == "ş" or veri[i + 2] == "s") and veri[i + 3] == "e" and veri[i + 4] == "k" and (veri[i + 5] == "ü" or veri[i + 5] == "u") and veri[i + 6] == "r": # teşekür toplam_olumlu += 1 if veri[i] == "d" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "s" and veri[i + 4] == " " and veri[i + 5] == "v" and veri[i + 6] == "e" and veri[i + 7] == "r" and (veri[i + 8] == "i" or veri[i + 8] == "ı") and veri[i + 9] == "c" and (veri[i + 10] == "i" or veri[i + 10] == "ı"): # ders verici toplam_olumlu += 1 # olumsuz kelimelerin tespiti: if veri[i] == "b" and veri[i + 1] == "e" and (veri[i + 2] == "ğ" or veri[i + 2] == "g") and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "m" and veri[i + 6] == "e" and veri[i + 7] == "d" and (veri[i + 8] == "i" or veri[i + 8] == "ı") and veri[i + 9] == "m": # beğenmedim toplam_olumsuz += 1 if veri[i] == "k" and (veri[i + 1] == "ö" or veri[i + 1] == "o") and veri[i + 2] == "t" and (veri[i + 3] == "ü" or veri[i + 3] == "u"): # kötü toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "b" and veri[i + 4] == "a" and veri[i + 5] == "t": # berbat toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "a" and veri[i + 2] == "k" and veri[i + 3] == "a" and veri[i + 4] == "m" and veri[i + 5] == "a" and veri[i + 6] == "d" and (veri[i + 7] == "ı" or veri[i + 7] == "i") and veri[i + 8] == "m": # bakamadım toplam_olumsuz += 1 if (veri[i] == "ı" or veri[i] == "i") and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "y" and veri[i + 5] == "e" and veri[i + 6] == "m" and veri[i + 7] == "e" and veri[i + 8] == "d" and (veri[i + 9] == "i" or veri[i + 9] == "ı") and veri[i + 10] == "m": # izleyemedim toplam_olumsuz += 1 if veri[i] == "s" and (veri[i + 1] == "ı" or veri[i + 1] == "i") and veri[i + 2] == "k" and (veri[i + 3] == "i" or veri[i + 3] == "ı") and veri[i + 4] == "c" and (veri[i + 5] == "ı" or veri[i + 5] == "i"): # sıkicı toplam_olumsuz += 1 if (veri[i] == "g" or veri[i] == "ğ") and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "d" and veri[i + 7] == "e" and (veri[i + 8] == "g" or veri[i + 8] == "ğ") and (veri[i + 9] == "ı" or veri[i + 9] == "i") and veri[i + 10] == "l": # guzel degıl toplam_olumsuz += 1 if (veri[i] == "ı" or veri[i] == "i") and (veri[i + 1] == "ç" or veri[i + 1] == "c") and (veri[i + 2] == "i" or veri[i + 2] == "ı") and veri[i + 3] == "m" and veri[i + 4] == " " and (veri[i + 5] == "ş" or veri[i + 5] == "s") and (veri[i + 6] == "i" or veri[i + 6] == "ı") and (veri[i + 7] == "ş" or veri[i + 7] == "s") and veri[i + 8] == "t" and (veri[i + 9] == "i" or veri[i + 9] == "ı"): # içim şişti toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "l" and veri[i + 3] == "a" and (veri[i + 4] == "s" or veri[i + 4] == "ş") and (veri[i + 5] == "ı" or veri[i + 5] == "i") and veri[i + 6] == "n" and (veri[i + 7] == "ı" or veri[i + 7] == "i") and veri[i + 8] == " " and veri[i + 9] == "v" and veri[i + 10] == "e" and veri[i + 11] == "r" and veri[i + 12] == "s" and (veri[i + 13] == "i" or veri[i + 13] == "ı") and veri[i + 14] == "n": # belasını versin toplam_olumsuz += 1 print("olumsuz yorumların sayısı:", toplam_olumsuz) print("olumlu yorumların saysı", toplam_olumlu) dosyaya_yazma = open("C:\\Users\\Asus\\PycharmProjects\\yapay_zeka_staj_projesi\\dosyaya_yazma.txt", "a") toplam_olumsuz = str(toplam_olumsuz) toplam_olumlu = str(toplam_olumlu) if toplam_olumlu == toplam_olumsuz: sonucumuz = "film adı: " + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak= Değerler eşit bir şans verilebilir.\n\n" dosyaya_yazma.write(sonucumuz) # encode kısmı eklemedir. if toplam_olumlu < toplam_olumsuz: sonucumuz = "film adı=" + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı" + toplam_olumlu + "\ntaviseye olarak=" + "izlemesen daha iyi\n\n" dosyaya_yazma.write(sonucumuz) if toplam_olumlu > toplam_olumsuz: sonucumuz = "film adı=" + film_adi + "\ntoplam olumlu yorum saysı=" + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak=" + "izlenebilir\n\n" dosyaya_yazma.write(sonucumuz) dosyaya_yazma.close() # açılan dosya işlem bittikten sonra kapatılıyor ki bellekte yer kaplamasın. print("filmin link adresi=", sayfa) # hangi filmin yorumunu merak ediyorsak o filme ait web sitesi """ HARF TANIMLAMA YERİ: BU PROGRAMDA EKSİK OLAN ŞEY ALINAN VERİYİ TÜRKÇE KARAKTERLERE DÖNÜŞTÜREMİYOR. ö =ö ş=ş ü=ü ı=ı ç=ç ğ=ğ """ def turkce_karakter_hatasi_var(self,sayfa, veri, film_adi): toplam_olumlu = 0 toplam_olumsuz = 0 """ ö =ö ş=ş ü=ü ı=ı ç=ç ğ=ğ """ for i in range(len(veri)): if veri[i]=="Å" and veri[i+1]=="Ÿ": veri=veri.replace("ş","s ") #replace ile bu değere ait bilgiler "s " ile değiştirildi. bu maketrans ve trasnlate ile aslında aynı işlevdedir. ama orada bazı noktalarda atama kısmında özellikle hata olduğu için #replace kullanımını seçtim. if veri[i]=="Ä" and veri[i+1]=="Ÿ": veri = veri.replace("ğ","g ") if veri[i]=="Ã" and veri[i+1]=="¶": veri = veri.replace("ö","o ") if veri[i]=="Ã" and veri[i+1]=="¼": veri = veri.replace("ü","u ") if veri[i]=="Ä" and veri[i+1]=="±": veri = veri.replace("ı","i ") if veri[i]=="Ã" and veri[i+1]=="§": veri = veri.replace("ç","c ") # elimizdeki yorumları küçük harflere dönüştürdük ki hem karşılaştırma yaparken hem de aşağıda replace yaparken var olan olasılıkları azaltmaktı yani teşekkür kelimesinde büyük küçük için birden fazla olasılığı içeren replace kodu azaltmaktı. veri=veri.lower() #olasılıksal olarak fazla seçeneğin kontrol edildiği ve değiştirildiği kısım. aşağıdaki if kısımları ise bunların işlenmesi sonucu ortaya çıkan kelimeleri yakalamaya çalışan kısımdır. veri=veri.replace("tes ekku rler","tesekkurler") veri = veri.replace("tesekku rler", "tesekkurler") veri = veri.replace("tes ekkurler", "tesekkurler") veri=veri.replace("beg endim","begendim") veri = veri.replace("beg endi m", "begendim") veri = veri.replace("begendi m", "begendim") veri = veri.replace("eg lenceliydi", "eglenceliydi") veri = veri.replace("eg lenceli ydi", "eglenceliydi") veri = veri.replace("eglenceli ydi", "eglenceliydi") veri = veri.replace("gu zeldi", "guzeldi") veri = veri.replace("hari ka", "harika") veri = veri.replace("fi lm gu zel", "film guzel") veri = veri.replace("film gu zel", "film guzel") veri = veri.replace("fi lm guzel", "film guzel") veri = veri.replace("duygulandi m", "duygulandim") veri = veri.replace("c ok gu zel", "cok guzel") veri = veri.replace("c ok guzel", "cok guzel") veri = veri.replace("cok gu zel", "cok guzel") veri = veri.replace("sii r", "siir") veri = veri.replace("si ir", "siir") veri = veri.replace("si i r", "siir") veri = veri.replace("s iir", "siir") veri = veri.replace("s ii r", "siir") veri = veri.replace("s i ir", "siir") veri = veri.replace("s i i r", "siir") veri = veri.replace("fi lm guzeldi", "film guzeldi") veri = veri.replace("fi lm gu zeldi", "film guzeldi") veri = veri.replace("film gu zeldi", "film guzeldi") veri = veri.replace("gu zel film", "guzel film") veri = veri.replace("gu zel fi lm", "guzel film") veri = veri.replace("guzel fi lm", "guzel film") veri = veri.replace("tes ekkur", "tesekkur") veri = veri.replace("tes ekku r", "tesekkur") veri = veri.replace("tesekku r", "tesekkur") veri = veri.replace("tesekur", "tesekur") veri = veri.replace("ders veri ci", "ders verici") veri = veri.replace("ders veri ci ", "ders verici") veri = veri.replace("ders verici ", "ders verici") veri = veri.replace("muhtes em", "muhtesem") veri = veri.replace("mu htes em", "muhtesem") veri = veri.replace("mu htesem", "muhtesem") veri = veri.replace("tavsi ye ederim ", "tavsiye ederim") veri = veri.replace("tavsi ye ederi m ", "tavsiye ederim") veri = veri.replace("adamlar yapmi s", "adamlar yapmis") veri = veri.replace("adamlar yapmi s ", "adamlar yapmis") veri = veri.replace("adamlar yapmis ", "adamlar yapmis") veri = veri.replace("cok iyi ydi", "cok iyiydi") veri = veri.replace("cok i yiydi", "cok iyiydi") veri = veri.replace("cok i yi ydi", "cok iyiydi") veri = veri.replace("c ok iyiydi", "cok iyiydi") veri = veri.replace("c ok iyi ydi", "cok iyiydi") veri = veri.replace("c ok i yiydi", "cok iyiydi") veri = veri.replace("c ok i yi ydi", "cok iyiydi") veri = veri.replace("i yi ydi", "iyiydi") veri = veri.replace("iyi ydi", "iyiydi") veri = veri.replace("i yiydi", "iyiydi") veri = veri.replace("cok iyi di", "cok iyiydi") veri = veri.replace("cok i yidi", "cok iyiydi") veri = veri.replace("cok i yi di", "cok iyiydi") veri = veri.replace("c ok iyidi", "cok iyiydi") veri = veri.replace("c ok iyi di", "cok iyiydi") veri = veri.replace("c ok i yidi", "cok iyiydi") veri = veri.replace("c ok i yi di", "cok iyiydi") veri = veri.replace("izlenmeye deg er", "izlenmeye deger") veri = veri.replace("i zlenmeye deg er", "izlenmeye deger") veri = veri.replace("i zlenmeye deger", "izlenmeye deger") veri = veri.replace("izlemeye deg er", "izlenmeye deger") veri = veri.replace("i zlemeye deg er", "izlenmeye deger") veri = veri.replace("i zlemeye deger", "izlenmeye deger") veri = veri.replace("o n numara", "on numara") veri = veri.replace("mahvo ldum", "mahvoldum") veri = veri.replace("mahvo ldu m", "mahvoldum") veri = veri.replace("mahvoldu m", "mahvoldum") veri = veri.replace("su per", "super") veri = veri.replace("izleyi n", "izleyin") veri = veri.replace("i zleyin", "izleyin") veri = veri.replace("i zleyi n", "izleyin") #olumsuz kelimelerin dönüşümü veri = veri.replace("beg enmedim", "begenmedim") veri = veri.replace("beg enmedi m", "begenmedim") veri = veri.replace("begenmedi m", "begenmedim") veri = veri.replace("ko tu", "kotu") veri = veri.replace("bakamadi m", "bakamadim") veri = veri.replace("i zleyemedim", "izleyemedim") veri = veri.replace("i zleyemedi m", "izleyemedim") veri = veri.replace("izleyemedi m", "izleyemedim") veri = veri.replace("siki ci", "sikici") veri = veri.replace("si ki ci", "sikici") veri = veri.replace("si kici", "sikici") veri = veri.replace("guzel degi l", "guzel degil") veri = veri.replace("guzel deg il", "guzel degil") veri = veri.replace("guzel deg i l", "guzel degil") veri = veri.replace("gu zel degil", "guzel degil") veri = veri.replace("gu zel degi l", "guzel degil") veri = veri.replace("gu zel deg il", "guzel degil") veri = veri.replace("gu zel deg i l", "guzel degil") veri = veri.replace("ic im s is ti", "icim sisti") #aslında bundan 64 tane olmalı her ihtimali kapsamalı ama biz sadece kullanımı doğru olanı yazdık. veri = veri.replace("belasini versi n", "belasini versin") veri = veri.replace("belasini versin", "belasini versin") veri = veri.replace("belasini versi n", "belasini versin") veri = veri.replace("belasi ni versin", "belasini versin") veri = veri.replace("belasi ni versi n", "belasini versin") veri = veri.replace("belasi ni versin", "belasini versin") veri = veri.replace("belasi ni versi n", "belasini versin") veri = veri.replace("bos bir fi lm", "bos bir film") veri = veri.replace("bos bi r film", "bos bir film") veri = veri.replace("bos bi r fi lm", "bos bir film") veri = veri.replace("bos bir film", "bos bir film") veri = veri.replace("bos bir fi lm", "bos bir film") veri = veri.replace("bos bi r film", "bos bir film") veri = veri.replace("bos bi r fi lm", "bos bir film") veri = veri.replace("bos fi lm", "bos film") veri = veri.replace("bos film", "bos film") veri = veri.replace("bos fi lm", "bos film") veri = veri.replace("film bos ", "film bos") veri = veri.replace("fi lm bos", "film bos") veri = veri.replace("fi lm bos ", "film bos") veri = veri.replace("saatimi yedini z", "saatimi yediniz") veri = veri.replace("saatimi yedi niz", "saatimi yediniz") veri = veri.replace("saatimi yedi ni z", "saatimi yediniz") veri = veri.replace("saatimi yediniz", "saatimi yediniz") veri = veri.replace("saatimi yedini z", "saatimi yediniz") veri = veri.replace("saatimi yedi niz", "saatimi yediniz") veri = veri.replace("saatimi yedi ni z", "saatimi yediniz") veri = veri.replace("saati mi yediniz", "saatimi yediniz") veri = veri.replace("saati mi yedini z", "saatimi yediniz") veri = veri.replace("saati mi yedi niz", "saatimi yediniz") veri = veri.replace("saati mi yedi ni z", "saatimi yediniz") veri = veri.replace("saati mi yediniz", "saatimi yediniz") veri = veri.replace("saati mi yedini z", "saatimi yediniz") veri = veri.replace("saati mi yedi niz", "saatimi yediniz") veri = veri.replace("saati mi yedi ni z", "saatimi yediniz") veri = veri.replace("satimi yediniz", "saatimi yediniz") veri = veri.replace("satimi yedini z", "saatimi yediniz") veri = veri.replace("satimi yedi niz", "saatimi yediniz") veri = veri.replace("satimi yedi ni z", "saatimi yediniz") veri = veri.replace("satimi yediniz", "saatimi yediniz") veri = veri.replace("satimi yedini z", "saatimi yediniz") veri = veri.replace("satimi yedi niz", "saatimi yediniz") veri = veri.replace("satimi yedi ni z", "saatimi yediniz") veri = veri.replace("sati mi yediniz", "saatimi yediniz") veri = veri.replace("sati mi yedini z", "saatimi yediniz") veri = veri.replace("sati mi yedi niz", "saatimi yediniz") veri = veri.replace("sati mi yedi ni z", "saatimi yediniz") veri = veri.replace("sati mi yediniz", "saatimi yediniz") veri = veri.replace("sati mi yedini z", "saatimi yediniz") veri = veri.replace("sati mi yedi niz", "saatimi yediniz") veri = veri.replace("sati mi yedi ni z", "saatimi yediniz") veri = veri.replace("saki n izleme", "sakin izleme") veri = veri.replace("saki n i zleme", "sakin izleme") veri = veri.replace("sakin i zleme", "sakin izleme") veri = veri.replace("tavsi ye etmem", "tavsiye etmem") print(veri) for i in range(len(veri)): # film hakkında olumlu olabilecek kelimeleri içeriyorsa film hakkında olumlu yorum yapılmıştır. #türkçe karakter kullanılınca çeviricide hata olabiliyor. o yüzden bunları da tanımlamak lazım. kod bunları görünce anlaması gerekir. if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "g" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "d" and veri[i + 6] == "i" and veri[i + 7] == "m": # begendim toplam_olumlu += 1 if veri[i] == "d" and veri[i + 1] == "u" and veri[i + 2] == "y" and veri[i + 3] == "g" and veri[i + 4] == "u" and veri[i + 5] == "l" and veri[i + 6] == "a" and veri[i + 7] == "n" and veri[i + 8] == "d" and veri[i + 9] == "i" and veri[i + 10] == "m": # duygulandim toplam_olumlu += 1 if veri[i] == "h" and veri[i + 1] == "a" and veri[i + 2] == "r" and veri[i + 3] == "i" and veri[i + 4] == "k" and veri[i + 5] == "a": # harika toplam_olumlu += 1 if veri[i] == "m" and veri[i + 1] == "u" and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "z" and veri[i + 5] == "a" and veri[i + 6] == "m": # muazzam toplam_olumlu += 1 if veri[i] == "m" and veri[i + 1] == "u" and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "a" and veri[i + 5] == "m": # muazam toplam_olumlu += 1 if veri[i] == "e" and veri[i + 1] == "g" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "c" and veri[i + 6] == "e" and veri[i + 7] == "l" and veri[i + 8] == "i": # eglenceli toplam_olumlu += 1 if veri[i] == "s" and veri[i + 1] == "i" and veri[i + 2] == "i" and veri[i + 3] == "r": # siir toplam_olumlu += 1 if veri[i] == "f" and veri[i + 1] == "i" and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and veri[i + 6] == "u" and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l": # film guzel toplam_olumlu += 1 if veri[i] == "f" and veri[i + 1] == "i" and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and veri[i + 6] == "u" and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l" and veri[i + 10] == "d" and veri[i + 11] == "i": # film guzeldi toplam_olumlu += 1 if veri[i] == "c" and veri[i + 1] == "o" and veri[i + 2] == "k" and veri[i + 3] == " " and veri[i + 4] == "g" and veri[i + 5] == "u" and veri[i + 6] == "z" and veri[i + 7] == "e" and veri[i + 8] == "l": # cok guzel toplam_olumlu += 1 if veri[i] == "g" and veri[i + 1] == "u" and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == "d" and veri[i + 6] == "i": # guzeldi toplam_olumlu += 1 if veri[i] == "g" and veri[i + 1] == "u" and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "f" and veri[i + 7] == "i" and veri[i + 8] == "m": # guzel film toplam_olumlu += 1 if veri[i] == "t" and veri[i + 1] == "e" and veri[i + 2] == "s" and veri[i + 3] == "e" and veri[i + 4] == "k" and veri[i + 5] == "k" and veri[i + 6] == "u" and veri[i + 7] == "r": # tesekkur toplam_olumlu += 1 if veri[i] == "t" and veri[i + 1] == "e" and veri[i + 2] == "s" and veri[i + 3] == "e" and veri[i + 4] == "k" and veri[i + 5] == "u" and veri[i + 6] == "r": # tesekur toplam_olumlu += 1 if veri[i] == "d" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "s" and veri[i + 4] == " " and veri[i + 5] == "v" and veri[i + 6] == "e" and veri[i + 7] == "r" and veri[i + 8] == "i" and veri[i + 9] == "c" and veri[i + 10] == "i": # ders verici toplam_olumlu += 1 if veri[i] == "e" and veri[i + 1] == "f" and veri[i + 2] == "s" and veri[i + 3] == "a" and veri[i + 4] == "n" and veri[i + 5] == "e": # efsane toplam_olumlu += 1 if veri[i] == "i" and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "y" and veri[i + 5] == "i" and veri[i + 5] == "n": # izleyin toplam_olumlu += 1 if veri[i] == "s" and veri[i + 1] == "u" and veri[i + 2] == "p" and veri[i + 3] == "e" and veri[i + 4] == "r": #super toplam_olumlu += 1 if veri[i] == "m" and veri[i + 1] == "a" and veri[i + 2] == "h" and veri[i + 3] == "v" and veri[i + 4] == "o" and veri[i + 5] == "l" and veri[i + 6] == "d" and veri[i + 7] == "u" and veri[i + 8] == "m": # mahvoldum toplam_olumlu += 1 if veri[i] == "o" and veri[i + 1] == "n" and veri[i + 2] == " " and veri[i + 3] == "n" and veri[i + 4] == "u" and veri[i + 5] == "m" and veri[i + 6] == "a" and veri[i + 7] == "r" and veri[i + 8] == "a": # on numara toplam_olumlu += 1 if veri[i] == "m" and veri[i + 1] == "u" and veri[i + 2] == "h" and veri[i + 3] == "t" and veri[i + 4] == "e" and veri[i + 5] == "s" and veri[i + 6] == "e" and veri[i + 7] == "m": # muhtesem toplam_olumlu += 1 if veri[i] == "t" and veri[i + 1] == "a" and veri[i + 2] == "v" and veri[i + 3] == "s" and veri[i + 4] == "i" and veri[i + 5] == "y" and veri[i + 6] == "e" and veri[i + 7] == " " and veri[i + 8] == "e" and veri[i + 9] == "d" and veri[i + 10] == "e" and veri[i + 11] == "r" and veri[i + 12] == "i" and veri[i + 13] == "m": # tavsiye ederim toplam_olumlu += 1 if veri[i] == "a" and veri[i + 1] == "d" and veri[i + 2] == "a" and veri[i + 3] == "m" and veri[i + 4] == "l" and veri[i + 5] == "a" and veri[i + 6] == "r" and veri[i + 7] == " " and veri[i + 8] == "y" and veri[i + 9] == "a" and veri[i + 10] == "p" and veri[i + 11] == "m" and veri[i + 12] == "i" and veri[i + 13] == "s": # adamlar yapmis toplam_olumlu += 1 if veri[i] == "c" and veri[i + 1] == "o" and veri[i + 2] == "k" and veri[i + 3] == " " and veri[i + 4] == "i" and veri[i + 5] == "y" and veri[i + 6] == "i" and veri[i + 7] == "y" and veri[i + 8] == "d" and veri[i + 9] == "i": # cok iyiydi ve cok iyidi yorumlarını aynı şekilde komtrol eder. toplam_olumlu += 1 if veri[i] == "i" and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "m" and veri[i + 6] == "e" and veri[i + 7] == "y" and veri[i + 8] == "e" and veri[i + 9] == " " and veri[i] == "d" and veri[i + 1] == "e" and veri[i + 2] == "g" and veri[i + 3] == "e" and veri[i + 4] == "r": # izlenmeye deger ve izlemeye deger kısımlarını içerir. toplam_olumlu += 1 # olumsuz kelimelerin tespiti: if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "g" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "m" and veri[i + 6] == "e" and veri[i + 7] == "d" and veri[i + 8] == "i" and veri[i + 9] == "m": # begenmedim toplam_olumsuz += 1 if veri[i] == "k" and veri[i + 1] == "o" and veri[i + 2] == "t" and veri[i + 3] == "u": # kotu toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "b" and veri[i + 4] == "a" and veri[i + 5] == "t": # berbat toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "a" and veri[i + 2] == "k" and veri[i + 3] == "a" and veri[i + 4] == "m" and veri[i + 5] == "a" and veri[i + 6] == "d" and veri[i + 7] == "i" and veri[i + 8] == "m": # bakamadim toplam_olumsuz += 1 if veri[i] == "i" and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "y" and veri[i + 5] == "e" and veri[i + 6] == "m" and veri[i + 7] == "e" and veri[i + 8] == "d" and veri[i + 9] == "i" and veri[i + 10] == "m": # izleyemedim toplam_olumsuz += 1 if veri[i] == "s" and veri[i + 1] == "i" and veri[i + 2] == "k" and veri[i + 3] == "i" and veri[i + 4] == "c" and veri[i + 5] == "i": # sikici toplam_olumsuz += 1 if veri[i] == "g" and veri[i + 1] == "u" and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "d" and veri[i + 7] == "e" and veri[i + 8] == "g" and veri[i + 9] == "i" and veri[i + 10] == "l": # guzel degil toplam_olumsuz += 1 if veri[i] == "i" and veri[i + 1] == "c" and veri[i + 2] == "i" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "s" and veri[i + 6] == "i" and veri[i + 7] == "s" and veri[i + 8] == "t" and veri[i + 9] == "i": # icim sisti toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "l" and veri[i + 3] == "a" and veri[i + 4] == "s" and veri[i + 5] == "i" and veri[i + 6] == "n" and veri[i + 7] == "i" and veri[i + 8] == " " and veri[i + 9] == "v" and veri[i + 10] == "e" and veri[i + 11] == "r" and veri[i + 12] == "s" and veri[i + 13] == "i" and veri[i + 14] == "n": # belasini versin toplam_olumsuz += 1 if veri[i] == "s" and veri[i + 1] == "a" and veri[i + 2] == "a" and veri[i + 3] == "t" and veri[i + 4] == "i" and veri[i + 5] == "m" and veri[i + 6] == "i" and veri[i + 7] == " " and veri[i + 8] == "y" and veri[i + 9] == "e" and veri[i + 10] == "d" and veri[i + 11] == "i" and veri[i + 12] == "n" and veri[i + 13] == "i" and veri[i + 14] == "z": # saatimi yediniz toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "o" and veri[i + 2] == "s" and veri[i + 3] == " " and veri[i + 4] == "b" and veri[i + 5] == "i" and veri[i + 6] == "r" and veri[i + 7] == " " and veri[i + 8] == "f" and veri[i + 9] == "i" and veri[i + 10] == "l" and veri[i + 11] == "m": # bos bir film toplam_olumsuz += 1 if veri[i] == "b" and veri[i + 1] == "o" and veri[i + 2] == "s" and veri[i + 3] == " " and veri[i + 4] == "f" and veri[i + 5] == "i" and veri[i + 6] == "l" and veri[i + 7] == "m": # bos film toplam_olumsuz += 1 if veri[i] == "f" and veri[i + 1] == "i" and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "b" and veri[i + 6] == "o" and veri[i + 7] == "s": # film bos toplam_olumsuz += 1 if veri[i] == "t" and veri[i + 1] == "a" and veri[i + 2] == "v" and veri[i + 3] == "s" and veri[i + 4] == "i" and veri[i + 5] == "y" and veri[i + 6] == "e" and veri[i + 7] == " " and veri[i+8] == "e" and veri[i + 9] == "t" and veri[i + 10] == "m" and veri[i + 11] == "e" and veri[i + 12] == "m": # tavsiye etmem toplam_olumsuz += 1 print("olumsuz yorumların sayısı:", toplam_olumsuz) print("olumlu yorumların saysı", toplam_olumlu) dosyaya_yazma = open("C:\\Users\\Asus\\PycharmProjects\\yapay_zeka_staj_projesi\\dosyaya_yazma.txt", "a") toplam_olumsuz = str(toplam_olumsuz) toplam_olumlu = str(toplam_olumlu) if toplam_olumlu == toplam_olumsuz: sonucumuz = "film adı: " + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak= Değerler eşit bir şans verilebilir.\n\n" dosyaya_yazma.write(sonucumuz) # encode kısmı eklemedir. if toplam_olumlu < toplam_olumsuz: sonucumuz = "film adı=" + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı" + toplam_olumlu + "\ntaviseye olarak=" + "izlemesen daha iyi\n\n" dosyaya_yazma.write(sonucumuz) if toplam_olumlu > toplam_olumsuz: sonucumuz = "film adı=" + film_adi + "\ntoplam olumlu yorum saysı=" + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak=" + "izlenebilir\n\n" dosyaya_yazma.write(sonucumuz) dosyaya_yazma.close() # açılan dosya işlem bittikten sonra kapatılıyor ki bellekte yer kaplamasın. print("filmin link adresi=", sayfa) # hangi filmin yorumunu merak ediyorsak o filme ait web sitesi """ HARF TANIMLAMA YERİ: BU PROGRAMDA EKSİK OLAN ŞEY ALINAN VERİYİ TÜRKÇE KARAKTERLERE DÖNÜŞTÜREMİYOR. ö =ö ş=ş ü=ü ı=ı ç=ç ğ=ğ """ deger=Analiz() deger.web_kismi()
91.3065
474
0.690942
77,018
577,331
5.092004
0.013283
0.033995
0.026702
0.01251
0.979139
0.976146
0.974782
0.973221
0.970488
0.967249
0
0.009316
0.229291
577,331
6,323
475
91.3065
0.871834
0.517412
0
0.904601
0
0
0.143531
0.000672
0.000844
0
0
0
0
1
0.012241
false
0
0.000633
0
0.013508
0.108274
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
d0710abd16d6e7d55b00796a878547ae68e00b59
1,809
py
Python
query_examples.py
omyllymaki/table-viewer
abdb8d1243d393711b196d951058c29336108d99
[ "MIT" ]
null
null
null
query_examples.py
omyllymaki/table-viewer
abdb8d1243d393711b196d951058c29336108d99
[ "MIT" ]
null
null
null
query_examples.py
omyllymaki/table-viewer
abdb8d1243d393711b196d951058c29336108d99
[ "MIT" ]
null
null
null
import pandas as pd from tabulate import tabulate from src.filtering import filter_by_query df = pd.read_csv("test_data/simple_test_data.csv") print("Original data:") print(tabulate(df, headers=df.columns)) print() query = "tampere" df_filtered = filter_by_query(df, query) print("Query: ", query) print(tabulate(df_filtered, headers=df_filtered.columns)) print() assert df_filtered.index.to_list() == [3, 4, 6, 7] query = "tam.*re" df_filtered = filter_by_query(df, query) print("Query: ", query) print(tabulate(df_filtered, headers=df_filtered.columns)) print() assert df_filtered.index.to_list() == [3, 4, 6, 7] query = "[Lives, Born] tampere || [Nationality] finland" df_filtered = filter_by_query(df, query) print("Query: ", query) print(tabulate(df_filtered, headers=df_filtered.columns)) print() assert df_filtered.index.to_list() == [2, 3, 4, 6, 7] query = "[Lives] [Born] tampere || [Nationality] finland" df_filtered = filter_by_query(df, query) print("Query: ", query) print(tabulate(df_filtered, headers=df_filtered.columns)) print() assert df_filtered.index.to_list() == [2, 3, 4, 6, 7] query = "[Lives, Born] tampere && [Nationality] finland" df_filtered = filter_by_query(df, query) print("Query: ", query) print(tabulate(df_filtered, headers=df_filtered.columns)) print() assert df_filtered.index.to_list() == [3, 4, 6] query = "[Lives] tampere && [Nationality] finland" df_filtered = filter_by_query(df, query) print("Query: ", query) print(tabulate(df_filtered, headers=df_filtered.columns)) print() assert df_filtered.index.to_list() == [4] query = "[Lives] tampere|helsinki && [Nationality] finland" df_filtered = filter_by_query(df, query) print("Query: ", query) print(tabulate(df_filtered, headers=df_filtered.columns)) print() assert df_filtered.index.to_list() == [2, 3, 4]
30.15
59
0.735766
269
1,809
4.743494
0.144981
0.219436
0.081505
0.094044
0.82837
0.82837
0.82837
0.82837
0.82837
0.82837
0
0.015442
0.10503
1,809
59
60
30.661017
0.772699
0
0
0.673469
0
0
0.185185
0.016584
0
0
0
0
0.142857
1
0
false
0
0.061224
0
0.061224
0.489796
0
0
0
null
1
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
1
0
8
d0cc26f9253ec22493da885041cf12a7f8fd34ba
305
py
Python
Templates/FuncApp-Http-Py-OptionC/ToolsC2/toolsC2.py
mmaysami/azure-functions-python
e97b29204af83bc1fc81b886f841fe7b7bc0c8a3
[ "MIT" ]
null
null
null
Templates/FuncApp-Http-Py-OptionC/ToolsC2/toolsC2.py
mmaysami/azure-functions-python
e97b29204af83bc1fc81b886f841fe7b7bc0c8a3
[ "MIT" ]
null
null
null
Templates/FuncApp-Http-Py-OptionC/ToolsC2/toolsC2.py
mmaysami/azure-functions-python
e97b29204af83bc1fc81b886f841fe7b7bc0c8a3
[ "MIT" ]
null
null
null
import time def sum2(a, b): a = float(a) b = float(b) return a+b def sub2(a, b): a = float(a) b = float(b) return a-b def pow2(a, b): start = time.time() a = float(a) b = float(b) return a**b def div2(a, b): a = float(a) b = float(b) return a//b
11.730769
23
0.481967
57
305
2.578947
0.210526
0.163265
0.190476
0.217687
0.70068
0.70068
0.70068
0.70068
0.70068
0.70068
0
0.020305
0.354098
305
25
24
12.2
0.725888
0
0
0.444444
0
0
0
0
0
0
0
0
0
1
0.222222
false
0
0.055556
0
0.5
0
0
0
0
null
0
1
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
0
0
0
0
8
d0f382424e721e57f17d3885179cf3af59477c19
191
py
Python
best_practice/models/__init__.py
ustcsky/recommenders
64f0dd4653cf7f1d687c45c61807841415e111c7
[ "MIT" ]
null
null
null
best_practice/models/__init__.py
ustcsky/recommenders
64f0dd4653cf7f1d687c45c61807841415e111c7
[ "MIT" ]
null
null
null
best_practice/models/__init__.py
ustcsky/recommenders
64f0dd4653cf7f1d687c45c61807841415e111c7
[ "MIT" ]
null
null
null
from .news_net import NewsNet from .user_net import UserNet from .squeezenet import SqueezeNet # from torchvision.models import InceptinV3 # from torchvision.models import alexnet as AlexNet
31.833333
51
0.837696
26
191
6.076923
0.5
0.113924
0.265823
0.341772
0
0
0
0
0
0
0
0.005988
0.125654
191
5
52
38.2
0.94012
0.47644
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
ef899202b5102fe6f65a80a1dbfe4392c7058eae
24,016
py
Python
models/utils.py
lishuliang/Emotion-Recognition
a8aea1b71b2508e6157410089b20ab463fe901f5
[ "MIT" ]
1
2019-03-16T08:11:53.000Z
2019-03-16T08:11:53.000Z
models/utils.py
lishuliang/Emotion-Recognition
a8aea1b71b2508e6157410089b20ab463fe901f5
[ "MIT" ]
null
null
null
models/utils.py
lishuliang/Emotion-Recognition
a8aea1b71b2508e6157410089b20ab463fe901f5
[ "MIT" ]
null
null
null
import tensorflow as tf def bias_var(out_channels, init_method): initial_value = tf.constant(0.0, shape=[out_channels]) biases = tf.Variable(initial_value) return biases def conv_var(kernel_size, in_channels, out_channels, init_method, name): shape = [kernel_size[0], kernel_size[1], in_channels, out_channels] if init_method == 'msra': return tf.get_variable(name=name, shape=shape, initializer=tf.contrib.layers.variance_scaling_initializer()) elif init_method == 'xavier': return tf.get_variable(name=name, shape=shape, initializer=tf.contrib.layers.xavier_initializer()) def attentional_transition(input_layer, name): channels = input_layer.get_shape().as_list()[-1] map_size = input_layer.get_shape().as_list()[1] bottom_fc = tf.nn.avg_pool(input_layer, [1, map_size, map_size, 1], [ 1, map_size, map_size, 1], 'VALID') assert bottom_fc.get_shape().as_list()[-1] == channels # none,1,1,C bottom_fc = tf.reshape(bottom_fc, [-1, channels]) # none, C Wfc = tf.get_variable( name=name+'_W1', shape=[channels, channels/2], initializer=tf.contrib.layers.xavier_initializer()) bfc = tf.get_variable( name=name+'_b1', initializer=tf.constant(0.0, shape=[channels/2])) mid_fc = tf.nn.relu(tf.matmul(bottom_fc, Wfc)+bfc) Wfc = tf.get_variable( name=name+'_W2', shape=[channels/2, channels], initializer=tf.contrib.layers.xavier_initializer()) bfc = tf.get_variable( name=name+'_b2', initializer=tf.constant(0.0, shape=[channels])) top_fc = tf.nn.sigmoid(tf.matmul(mid_fc, Wfc)+bfc) # none, C top_fc = tf.reshape(top_fc, [-1, 1, 1, channels]) output_layer = tf.multiply(input_layer, top_fc) return output_layer def transition(input_layer, if_a, is_train, keep_prob, name): channels = input_layer.get_shape().as_list()[-1] output_layer = tf.contrib.layers.batch_norm( input_layer, scale=True, is_training=is_train, updates_collections=None) output_layer = tf.nn.relu(output_layer) filters = conv_var(kernel_size=(1, 1), in_channels=channels, out_channels=channels, init_method='msra', name=name) output_layer = tf.nn.conv2d(output_layer, filters, [ 1, 1, 1, 1], padding='SAME') output_layer = tf.nn.dropout(output_layer, keep_prob) # attentional transition if if_a: output_layer = attentional_transition(output_layer, name=name+'-ATT') output_layer = tf.nn.avg_pool(output_layer, [1, 2, 2, 1], [ 1, 2, 2, 1], padding='VALID') return output_layer def compress(input_layer, is_train, keep_prob, name): channels = input_layer.get_shape().as_list()[-1] output_layer = tf.contrib.layers.batch_norm( input_layer, scale=True, is_training=is_train, updates_collections=None) output_layer = tf.nn.relu(output_layer) filters = conv_var(kernel_size=(1, 1), in_channels=channels, out_channels=channels/2, init_method='msra', name=name) output_layer = tf.nn.conv2d(output_layer, filters, [ 1, 1, 1, 1], padding='SAME') output_layer = tf.nn.dropout(output_layer, keep_prob) return output_layer def global_pool(input_layer, is_train): output_layer = tf.contrib.layers.batch_norm( input_layer, scale=True, is_training=is_train, updates_collections=None) output_layer = tf.nn.relu(output_layer) map_size = input_layer.get_shape().as_list()[1] return tf.nn.avg_pool(output_layer, [1, map_size, map_size, 1], [1, map_size, map_size, 1], 'VALID') def first_transit(input_layer, channels, strides, with_biase=False): filters = conv_var(kernel_size=(3, 3), in_channels=3, out_channels=channels, init_method='msra', name='first_tran') conved = tf.nn.conv2d(input_layer, filters, [ 1, strides, strides, 1], padding='SAME') if with_biase == True: biases = bias_var(out_channels=channels) biased = tf.nn.bias_add(conved, biases) return biased return conved def loop_block(input_layer, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name, loop_num=1): if if_b: # if bottleneck is used, the T value should be multiplied by 2. layer_num = layer_num/2 channels = channels_per_layer node_0_channels = input_layer.get_shape().as_list()[-1] # init param param_dict = {} kernel_size = (1, 1) if if_b == True else (3, 3) for layer_id in range(1, layer_num): add_id = 1 while layer_id+add_id <= layer_num: # -> filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id)) param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters # <- filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id)) param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv add_id += 1 for layer_id in range(layer_num): filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1)) param_dict[str(0)+'_'+str(layer_id+1)] = filters assert len(param_dict) == layer_num*(layer_num-1)+layer_num ### bottleneck param ### if if_b == True: param_dict_B = {} for layer_id in range(1, layer_num+1): filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+'to-'+str(layer_id)) param_dict_B[str(layer_id)] = filters # init blob blob_dict = {} for layer_id in range(1, layer_num+1): bottom_blob = input_layer bottom_param = param_dict['0_'+str(layer_id)] for layer_id_id in range(1, layer_id): bottom_blob = tf.concat( (bottom_blob, blob_dict[str(layer_id_id)]), axis=3) bottom_param = tf.concat( (bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2) mid_layer = tf.contrib.layers.batch_norm( bottom_blob, scale=True, is_training=is_train, updates_collections=None) mid_layer = tf.nn.relu(mid_layer) mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [ 1, 1, 1, 1], padding='SAME') mid_layer = tf.nn.dropout(mid_layer, keep_prob) # Bottle neck if if_b == True: next_layer = tf.contrib.layers.batch_norm( mid_layer, scale=True, is_training=is_train, updates_collections=None) next_layer = tf.nn.relu(next_layer) next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [ 1, 1, 1, 1], padding='SAME') next_layer = tf.nn.dropout(next_layer, keep_prob) else: next_layer = mid_layer blob_dict[str(layer_id)] = next_layer # begin loop for loop_id in range(loop_num): for layer_id in range(1, layer_num+1): # [1,2,3,4,5] layer_list = [str(l_id) for l_id in range(1, layer_num+1)] layer_list.remove(str(layer_id)) bottom_blobs = blob_dict[layer_list[0]] bottom_param = param_dict[layer_list[0]+'_'+str(layer_id)] for bottom_id in range(len(layer_list)-1): bottom_blobs = tf.concat((bottom_blobs, blob_dict[layer_list[bottom_id+1]]), axis=3) # concatenate the data blobs bottom_param = tf.concat((bottom_param, param_dict[layer_list[bottom_id+1]+'_'+str(layer_id)]), axis=2) # concatenate the parameters mid_layer = tf.contrib.layers.batch_norm( bottom_blobs, scale=True, is_training=is_train, updates_collections=None) mid_layer = tf.nn.relu(mid_layer) mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [ 1, 1, 1, 1], padding='SAME') # update the data blob mid_layer = tf.nn.dropout(mid_layer, keep_prob) # Bottle neck if if_b == True: next_layer = tf.contrib.layers.batch_norm( mid_layer, scale=True, is_training=is_train, updates_collections=None) next_layer = tf.nn.relu(next_layer) next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [ 1, 1, 1, 1], padding='SAME') next_layer = tf.nn.dropout(next_layer, keep_prob) else: next_layer = mid_layer blob_dict[str(layer_id)] = next_layer transit_feature = blob_dict['1'] for layer_id in range(2, layer_num+1): transit_feature = tf.concat( (transit_feature, blob_dict[str(layer_id)]), axis=3) block_feature = tf.concat((input_layer, transit_feature), axis=3) return block_feature, transit_feature def loop_block_I_I(input_layer, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name): if if_b: # if bottleneck is used, the T value should be multiplied by 2. layer_num = layer_num/2 channels = channels_per_layer node_0_channels = input_layer.get_shape().as_list()[-1] # init param param_dict = {} kernel_size = (1, 1) if if_b == True else (3, 3) for layer_id in range(1, layer_num): add_id = 1 while layer_id+add_id <= layer_num: # -> filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id)) param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters # <- filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id)) param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv add_id += 1 for layer_id in range(layer_num): filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1)) param_dict[str(0)+'_'+str(layer_id+1)] = filters assert len(param_dict) == layer_num*(layer_num-1)+layer_num ### bottleneck param ### if if_b == True: param_dict_B = {} for layer_id in range(1, layer_num+1): filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+'to-'+str(layer_id)) param_dict_B[str(layer_id)] = filters # init blob blob_dict = {} for layer_id in range(1, layer_num+1): bottom_blob = input_layer bottom_param = param_dict['0_'+str(layer_id)] for layer_id_id in range(1, layer_id): bottom_blob = tf.concat( (bottom_blob, blob_dict[str(layer_id_id)]), axis=3) bottom_param = tf.concat( (bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2) mid_layer = tf.contrib.layers.batch_norm( bottom_blob, scale=True, is_training=is_train, updates_collections=None) mid_layer = tf.nn.relu(mid_layer) mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [ 1, 1, 1, 1], padding='SAME') mid_layer = tf.nn.dropout(mid_layer, keep_prob) # Bottle neck if if_b == True: next_layer = tf.contrib.layers.batch_norm( mid_layer, scale=True, is_training=is_train, updates_collections=None) next_layer = tf.nn.relu(next_layer) next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [ 1, 1, 1, 1], padding='SAME') next_layer = tf.nn.dropout(next_layer, keep_prob) else: next_layer = mid_layer blob_dict[str(layer_id)] = next_layer # no loop transit_feature = blob_dict['1'] for layer_id in range(2, layer_num+1): transit_feature = tf.concat( (transit_feature, blob_dict[str(layer_id)]), axis=3) block_feature = tf.concat((input_layer, transit_feature), axis=3) return block_feature, transit_feature def loop_block_I_II(input_layer, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name, loop_num=1): if if_b: # if bottleneck is used, the T value should be multiplied by 2. layer_num = layer_num/2 import copy channels = channels_per_layer node_0_channels = input_layer.get_shape().as_list()[-1] # init param param_dict = {} kernel_size = (1, 1) if if_b == True else (3, 3) for layer_id in range(1, layer_num): add_id = 1 while layer_id+add_id <= layer_num: # -> filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id)) param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters # <- filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id)) param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv add_id += 1 for layer_id in range(layer_num): filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1)) param_dict[str(0)+'_'+str(layer_id+1)] = filters assert len(param_dict) == layer_num*(layer_num-1)+layer_num ### bottleneck param ### if if_b == True: param_dict_B = {} for layer_id in range(1, layer_num+1): filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+'to-'+str(layer_id)) param_dict_B[str(layer_id)] = filters # init blob blob_dict = {} blob_dict_list = [] for layer_id in range(1, layer_num+1): bottom_blob = input_layer bottom_param = param_dict['0_'+str(layer_id)] for layer_id_id in range(1, layer_id): bottom_blob = tf.concat( (bottom_blob, blob_dict[str(layer_id_id)]), axis=3) bottom_param = tf.concat( (bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2) mid_layer = tf.contrib.layers.batch_norm( bottom_blob, scale=True, is_training=is_train, updates_collections=None) mid_layer = tf.nn.relu(mid_layer) mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [ 1, 1, 1, 1], padding='SAME') mid_layer = tf.nn.dropout(mid_layer, keep_prob) # Bottle neck if if_b == True: next_layer = tf.contrib.layers.batch_norm( mid_layer, scale=True, is_training=is_train, updates_collections=None) next_layer = tf.nn.relu(next_layer) next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [ 1, 1, 1, 1], padding='SAME') next_layer = tf.nn.dropout(next_layer, keep_prob) else: next_layer = mid_layer blob_dict[str(layer_id)] = next_layer blob_dict_list.append(blob_dict) # begin loop for loop_id in range(loop_num): blob_dict_new = copy.copy(blob_dict_list[-1]) for layer_id in range(1, layer_num+1): # [1,2,3,4,5] layer_list = [str(l_id) for l_id in range(1, layer_num+1)] layer_list.remove(str(layer_id)) bottom_blobs = blob_dict_new[layer_list[0]] bottom_param = param_dict[layer_list[0]+'_'+str(layer_id)] for bottom_id in range(len(layer_list)-1): bottom_blobs = tf.concat((bottom_blobs, blob_dict_new[layer_list[bottom_id+1]]), axis=3) # concatenate the data blobs bottom_param = tf.concat((bottom_param, param_dict[layer_list[bottom_id+1]+'_'+str(layer_id)]), axis=2) # concatenate the parameters mid_layer = tf.contrib.layers.batch_norm( bottom_blobs, scale=True, is_training=is_train, updates_collections=None) mid_layer = tf.nn.relu(mid_layer) mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [ 1, 1, 1, 1], padding='SAME') # update the data blob mid_layer = tf.nn.dropout(mid_layer, keep_prob) # Bottle neck if if_b == True: next_layer = tf.contrib.layers.batch_norm( mid_layer, scale=True, is_training=is_train, updates_collections=None) next_layer = tf.nn.relu(next_layer) next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [ 1, 1, 1, 1], padding='SAME') next_layer = tf.nn.dropout(next_layer, keep_prob) else: next_layer = mid_layer blob_dict_new[str(layer_id)] = next_layer blob_dict_list.append(blob_dict_new) assert len(blob_dict_list) == 1+loop_num stage_I = blob_dict_list[0]['1'] for layer_id in range(2, layer_num+1): stage_I = tf.concat( (stage_I, blob_dict_list[0][str(layer_id)]), axis=3) stage_II = blob_dict_list[1]['1'] for layer_id in range(2, layer_num+1): stage_II = tf.concat( (stage_II, blob_dict_list[1][str(layer_id)]), axis=3) block_feature = tf.concat((input_layer, stage_I), axis=3) transit_feature = stage_II return block_feature, transit_feature def loop_block_X(input_layer, x_value, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name, loop_num=1): if if_b: # if bottleneck is used, the T value should be multiplied by 2. layer_num = layer_num/2 channels = channels_per_layer node_0_channels = input_layer.get_shape().as_list()[-1] # init param param_dict = {} kernel_size = (1, 1) if if_b == True else (3, 3) for layer_id in range(1, layer_num): add_id = 1 while layer_id+add_id <= layer_num: # -> filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id)) param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters # <- filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id)) param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv add_id += 1 for layer_id in range(layer_num): filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels, init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1)) param_dict[str(0)+'_'+str(layer_id+1)] = filters assert len(param_dict) == layer_num*(layer_num-1)+layer_num ### bottleneck param ### if if_b == True: param_dict_B = {} for layer_id in range(1, layer_num+1): filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels, init_method='msra', name=block_name+'-'+'to-'+str(layer_id)) param_dict_B[str(layer_id)] = filters # init blob blob_dict = {} for layer_id in range(1, layer_num+1): bottom_blob = input_layer bottom_param = param_dict['0_'+str(layer_id)] for layer_id_id in range(1, layer_id): bottom_blob = tf.concat( (bottom_blob, blob_dict[str(layer_id_id)]), axis=3) bottom_param = tf.concat( (bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2) mid_layer = tf.contrib.layers.batch_norm( bottom_blob, scale=True, is_training=is_train, updates_collections=None) mid_layer = tf.nn.relu(mid_layer) mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [ 1, 1, 1, 1], padding='SAME') mid_layer = tf.nn.dropout(mid_layer, keep_prob) # Bottle neck if if_b == True: next_layer = tf.contrib.layers.batch_norm( mid_layer, scale=True, is_training=is_train, updates_collections=None) next_layer = tf.nn.relu(next_layer) next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [ 1, 1, 1, 1], padding='SAME') next_layer = tf.nn.dropout(next_layer, keep_prob) else: next_layer = mid_layer blob_dict[str(layer_id)] = next_layer # begin loop for loop_id in range(loop_num): for layer_id in range(1, x_value+1): # [1,2,3,4,5] layer_list = [str(l_id) for l_id in range(1, layer_num+1)] layer_list.remove(str(layer_id)) bottom_blobs = blob_dict[layer_list[0]] bottom_param = param_dict[layer_list[0]+'_'+str(layer_id)] for bottom_id in range(len(layer_list)-1): bottom_blobs = tf.concat((bottom_blobs, blob_dict[layer_list[bottom_id+1]]), axis=3) # concatenate the data blobs bottom_param = tf.concat((bottom_param, param_dict[layer_list[bottom_id+1]+'_'+str(layer_id)]), axis=2) # concatenate the parameters mid_layer = tf.contrib.layers.batch_norm( bottom_blobs, scale=True, is_training=is_train, updates_collections=None) mid_layer = tf.nn.relu(mid_layer) mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [ 1, 1, 1, 1], padding='SAME') # update the data blob mid_layer = tf.nn.dropout(mid_layer, keep_prob) # Bottle neck if if_b == True: next_layer = tf.contrib.layers.batch_norm( mid_layer, scale=True, is_training=is_train, updates_collections=None) next_layer = tf.nn.relu(next_layer) next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [ 1, 1, 1, 1], padding='SAME') next_layer = tf.nn.dropout(next_layer, keep_prob) else: next_layer = mid_layer blob_dict[str(layer_id)] = next_layer transit_feature = blob_dict['1'] for layer_id in range(2, layer_num+1): transit_feature = tf.concat( (transit_feature, blob_dict[str(layer_id)]), axis=3) block_feature = tf.concat((input_layer, transit_feature), axis=3) return block_feature, transit_feature
45.058161
121
0.607512
3,367
24,016
4.010692
0.043362
0.066351
0.068128
0.025918
0.907361
0.90388
0.893217
0.881739
0.87848
0.865966
0
0.018556
0.275192
24,016
532
122
45.142857
0.757224
0.036434
0
0.835411
0
0
0.011704
0
0.009975
0
0
0
0.014963
1
0.027431
false
0
0.004988
0
0.064838
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
efc13e8c967945c14da12cf057f413e4f797d246
45
py
Python
unet/model/__init__.py
SyPRX/u-net
f542cfc108c465046bebeee29b1bd47d22c83a1b
[ "MIT" ]
1
2020-05-05T13:46:39.000Z
2020-05-05T13:46:39.000Z
unet/model/__init__.py
SyPRX/u-net
f542cfc108c465046bebeee29b1bd47d22c83a1b
[ "MIT" ]
2
2020-05-11T07:25:16.000Z
2022-02-10T01:47:42.000Z
unet/model/__init__.py
SyPRX/u-net
f542cfc108c465046bebeee29b1bd47d22c83a1b
[ "MIT" ]
null
null
null
from unet.model.manager import Model_manager
22.5
44
0.866667
7
45
5.428571
0.714286
0.631579
0
0
0
0
0
0
0
0
0
0
0.088889
45
1
45
45
0.926829
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
1
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
5605d4e3b6151d8196f443b488a15956198a4c66
109,684
py
Python
src/api/colors/green.py
Gummybearr/cf-ratings
04d1defa49e3f2babcb6cce1bf0fd1c4b046530c
[ "MIT" ]
null
null
null
src/api/colors/green.py
Gummybearr/cf-ratings
04d1defa49e3f2babcb6cce1bf0fd1c4b046530c
[ "MIT" ]
null
null
null
src/api/colors/green.py
Gummybearr/cf-ratings
04d1defa49e3f2babcb6cce1bf0fd1c4b046530c
[ "MIT" ]
null
null
null
green = "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAk0AAAElCAYAAAD5tdbyAAAABGdBTUEAALGPC/xhBQAAACBjSFJNAAB6JgAAgIQAAPoAAACA6AAAdTAAAOpgAAA6mAAAF3CculE8AAAABmJLR0QA/wD/AP+gvaeTAAAAB3RJTUUH5AsWBwcTjRML+gAAAAFvck5UAc+id5oAAIAASURBVHja7P1tzL5flxaErf1/nmFgEGqiQFPeKkRMfQGlGpsg+sHUNpZYk9o2pV9akn5qGvmgiV/80thvTVqa9kMraWKL1FZbU9RgCKVAkYJaUQYoImV4GQYHFIaBmWGYZ/67H65zr3Ucxzr2eZ7Xfd+/+37m8T4Hnuv6n/e+9l4vx1p7rbXXef4iPq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+nLXeM/Fftvv+R3z3/3efy/+6J/4Y/F93/+n48//p38h/sqP/NX41rd+IsYYMWfEOCiaB3Ez+j26CSPHcW/OecwH92LGiPH4lHG0cK1S6x5/fnzCfLrGbr7jXqPvoMnNN2cQT01rBy04rniEe7PfQx6JPv0t6GDJY04hZQhRMHDJ+3HrQUuMGld/53tJU63MJOMv1ri5X4Pmm4HKrHH5WxSL3DvGqfgMefv5wghQxi26RhtncLDBRlfSlCUWNuSeGbdTupLc2Eh743uekSn2tmzhZL5p9JEX2ttmPr03gd/RyOv+YCcDGdeU9ex8Cg3hc/24/fZY7LEc+pWgezt/0H4b5t7k3y5/5ncWHjdFCLgGz+eExT42fZdng6FLm8pmPvIlJ/RtlN79wTKjcQjfz0dEDwTRIYshNMv+gbrMexu/Ma5+K7qs/a/4rf1vAZD3RJXfd33zm/Gzvudnx8/7G39u/OKf84vib/sFf1v8Pb/0V8Sv/KV/z7vGIq+5vjihv/3f+p3zd/y+3x3/3h/+9+P7f/AH4of/6l+Jv/JX/0r86I/9WPz4X//xiJ/8FjvlHrvc+xuNWxvkiBiw8bqd92ytKeN2Emzj9KYJAnZM3NXI7XFvsK7IaSsaK88e3C7jwm20/ewOj+P8ds63lYHT0Z357sh9/4flUh+++wrMNZ8LN5I9K0AzQV4YJNcmGjF2YrjkcYu0FoDIxjqN7A/TpX3GsfeEnY7JSzP61rjlN0743dhB4/euPuZjXaePEePFeHMJj9etBnR+4P35zumy4hwbfVDAdDHfSRC6X3hPpPJ2Od+VKAQcTuNxV99X9N2aY621X7evsfEPu3sZtD3W+Oqrr+Kb3/xm/PTv+u74nu/+nvgbfsbfED/re35W/OKf84viV/6Svzt+1d/+q+JX/C1/17d1APXFiPu9f+D3z9/1+/+t+H/+vt8d//7/93vjz//gD0R861sR3/VdEV99I+KrEV+Nrx4Rae6lM+aAXDQrFkht3zo4Ga5AKTNTqHg8/jwujXk2L+3qIrBc2+2hArb+d3Dg8NgUeu5NoDQ7ZWVpPC43GfrZODZmHTT6Em2+o+6QCc7BiU+hKoOhJermmEU3VaFsCQnoCBcsPPjKpcfJ3kkpe6FCpfUYNtqa1/uMqSAhjvD7dI6Sle6KO4/RD/uo+cQ+cE7JrucE5cT63YiJtnIojjZqIwSiL8cdUmj8OkfO0n3oscvCBSXe3hoykpcdtNDHDMCGY3hvHw1BcWofOpY2LLCPEPsYGyZO6RuH/QbYL4l3o6gBdo9+wwSx2/lETs4+VH4jiHOabNE4/BJN1EP0sVuY5uvJ3al9tMVPVV4aPbMPpXH9Lu0D6dv5FxO4K32yHzYhKlsDpVI0NW04IBhRzYj4en79+P9ffx1//Sd/In7md/+M+IV/8y+MX/G3/PL41X/HPxB//y/7e+OX/fxf9m0ZPH0Rov7F3/J/mb/5X/uX47f/3t8ZP/7Dfzniu35afPXNb2YZj461Fn5HlfrKkLh8jkcXiIrdMRkdf61MDkuHBIW+ad05GtjOp2VdPSpsNLMMSEOtgntnvunpM+XkPl+nxR1xeGHd5fcufT1rPDtaobKymw+C6N3RKGsS6PNwAWzseXNrXB0NnGHDyQAUt5nvQe3r6LMqvzj+epZfd3y9sQ9z4dGoJk5ru7H8XthvQEKXtBw79KV9wHdLHxylx7hhHxDZm1t7+wAcXPmD4vcN/JUEg1tMPmG/K3yx/grXIro4geL5GLNb+8Co8cQ+2FZO7EONandUGIP3yQufvfVXJ/jrGA9P85nfIH5AznrkuYYdNv8TP/kT8fXXX8fP/Rt/bvw3/t7/evyav+8fjX/o7/wHv+0Cpzcn6J/9X/xz83/7L/3v48//wPfHVz/je8TgjyXNSQ1FspKE7alHj4AMYT+OydaekIgLr3Dpy5E0cBr6dvPdpQ/Am/OtEmpb5Tl+xfjvC2bSuEewWkZt9dETqb0Ixi3OJMB2I8FR3prvporGiF7LMrTcVPp9fnc3pyxr7MOl8WM/nbKxhcF44sdSa3gL+6j5RB+X2Di/9XL6xD4av6/zV0Tfmf3iyO1ADCRuzGd17kRQAcS3jX0ofbGxj8v5XkPfG/irO/br9OFIoVU3NjNuysUd944w6474en4dP/rjPxr/5V/6K+PX/Vf/B/Fr/8H/7rdV4PRmxHz/n/uz85/9X/5z8X//7f9G/KUf/ssxxhIyRJlHWemq6XseNwfeDLh5UbFoTdWwrkmDNLEEkO+jaWqAixv0XVUiqHkummBePp9jztFnhzUdPeg7mQ+z+isdxY4+zW4qW7vSue/Enbd06SobvcS1VHRzPtXHjr7G2waT/ac353sBfcCwx8a1zv18z1fltv0zZ/bxpvZ7YR9I3y17e4397rDxUnuDCteV/eY42ahZvRe6fAv73fls9huUhV/5A63y7fDc5ttg48XzeVm1SlMY+9gETA5/ldDCCQ+Rshsn9H01WM5oR4dwSG/HUA7sD96OcV9//XXMmPGLfs4vjH/87/9vxj/z3/qnvm0Cpzch5I/88T86/9f/x/9d/OZ/7V+OH/rhvxxjPBq+aBVRpt5ikF9Q1lIeKbGK0b9EClv67ox0UfXt+YSmTebm/YFd5bn5lnh3KriV3qChY+XlhqB34hhbzvrAGyPvzxe3Lj/fwsNx96pztsfynr4LXfZMcGMfVLM/Yy4u7ff+TcPc2U9vCf+KZLTLG1q/C9Mr+raOrR8J3eqqviD5XtWrY2NrH3cKPs/YL1Q6fUXlhgxwvjtquOmz9QjxGWy4qS/pO8FGqF3ene+WDJDfTkq/ZzPGe+vfrELtkq+f/PonY4wRP/9v+vnx3/+H/nvxT/6a//G3ReD01Wsn+DN/7s/Of+H/9psfAdNf+k/jq298RQFT09dWhs6Bj/Pxdr4bm9L5LVI2/n3enm9ejvPzOX5HH7ibz46bV7e2VjjNvVvy2wxwzdI6buz+aH5qZ1PRj81IIwPLb5vvpjLHjj49Coib842b9MW9a1zoo4aZ/7ixuZ/+ad6a5vTMIOe7so9xMl+/+Yx9nNI3bs5HDmZejvPzvS45jBt2efnHpO8KGxd/f4V9WPru2scNbLhxw+pyPKFzN9+8HHc3cmL7QFswDfKzzzDt4nfWvfM7XGe2//7GN74RM2b8mf/k++M3/a7/U/zm3/1/vj/hF7xeHTT9C//qb45/6V//v8YP/YUfjG/8tO8WfzWzDDIgxtE8Yw7IRHYRax5dDZiPs7b1JB6/Q0SvgyYhxtyKdbqYEfcq7bQfL/qgfB4r7Fi9FDOHVYKxwUAKJsgZLYeUPRBjRPULoVR3VaaZzmDHb5WWT+hCRkAHqQ8ovduqBs3nF2sqb5wNP3Ajgxq2eimmGWWAsLnGGBlAVY/BKN1Q5ryrJMz8TPuYO36FpnaTtZn0TXgAIow+cBGiiXW+s9/86VF6T353I+F4acnc2cdpUGd0tLWPNU9WEqxUQfglA8sF0bcDBwwATDp/tXTjg2KkaUMy0od+lJKejb8Sh5v6GOsYh6ExN9jYVR7IPkDnSw8TaYlz+4iIU3+Ao739dm3Sg0nB9kHyo/n2mPT2OxJN6S4NNrrPPoKa6f1V6qPZb6drfSn9rp2JsYOV2aoyrePD2ijbk3cUEA7+9LfgHtjC6CdE3/jqG/HVV1/Fn/zBPxn/h9/5m+K3/Dv/+ocHTjdTFH/9tt/z/5i//n/2z8Qf+d4/EN/4mT/r1swteB53iRgWtLgZv1UTJdEX2FSto6TEPOyv5c5FsoUGoOPGSENa+3Dnd4phns0HIh37Yec3eRGk5a2aKL1EXYp2xrCj71l+HX21Hh8HLVJunHFsIER4udLlGijNDVv72B7tncugS5Rl0Jl6Y/u4pM/oY1iqX8HvBU0nikNsbB+K2Ihvl1x0+zX6MNj4cPvAu08cy72cvi/kry7td6TPPjVqtMt5oo+zYLUJq/N7VqTzNnMig50fMrf6utDrZOxDrx/+sR+O/86v+ifi1/+a/0n8Hb/ob39V7PKa61WVpv/Nb/qN8ad/4PsjvvunB2ZpqSsoAXJWytWblRk1aUGmklE3ZJOZtaxIHJrTHhdWDipjo+Qml6oqwcr6MlPFjAzPeCFTqaw+6l4MoE8zQRHM+j4jqIoRLIPMSmFcZYBa2Yiqyi3dgGjTNnM4y4CEBYrTqhLKYMm+ZW6oAwwmVASQgawMdWVprHOlr5xDyW8W342+zloHKtOyvjN9lZWSPhaPTemiD0iy0bFMlcEQEIGtEP6guoR9M1NlIDo4tQ+DjWlk0AR4Zh/xQvsgfsU+RlUvOn1gH8Jc3RL7YNg3TLKwSkeEP8Fk8jvlHuogsSMkk50wNth+N/Yh2Li0DzSFM/vI+S7sw/qDG/YBOlnD2N7AcYQoLkQfWPlTf6X2ixUV9Fei8rVWBSQGf0iTBDNsv2stxkazD5unjCR3yy/JlOU34be4rwbYKFautITE64reABsBa6R8DvymvYGsFn0/47u/J37fH/u347f8O/9GfOT14qDpX/sd/+b8/f/Bvxt/9Ud+JL76xjcDPV8KFxSB5cCyaTaQxwVIyLL1fLxYDMqoj/kOY53dWFOxa2GovJhbMedjjXSeSRN+X86nHNDikYH3cGKPY8cB/BaIikcUTCRQdbObc9ITNWUM8lRMzleATvrSmB+k44kR8ZuyBwJBcUUfP3mBhoHZ2gBsOCEUfeDbj//jYE/pA2SBczhskILLTl8tajM3zL7mbJtd0Qeb4yHU9tQT8TtS9rW5Gxgs54lYRH0seQA2Ah1RzgebWYpKE4AL+0B9xIV9ICdn9oH03bEPNMEAfSx/gPYxxT60HCNBaKdP7GPGhl8c2O2DjkJF9rSBYADW7JexkX8SbHj7HZYRlD0+BYl0NVM4sw/AxtzIfgA2BmDjzD7wVSUK2eQRA40RD99MtsLYqGBV+RUdZZTSQYkirWAGZI/6IPsdRV+IPsBPEX1pv2TyTQdJ2BgxM9gB/Q7V+UNWk2guQRNOh9BAcgY+NAAbLCN3DIfBJemX5PdY45vf+Gb8+b/8F+L3/7F/O773T/0hDRnf7XpR0PR9f+ZPzX/5t/6r8Rf/8l8qYRsdPnXz8tbYjrMr3FvCD3zVfHfpG+anN398texdUQ376+1vb1N3U1bjzbBxNt/dJUbugzXfZsIpk2zpmzLfTfpeog/6jxN/coKNL2Mf0928Md9N+6DMdy8CCnRo4z0RAs5t57v702v/fmW/GGJN+6O7883293kmg7x1bh99vhv2cdL0fU5fH+h0uQvEW6+rEbSfz/E79tqdYcbrvdmShtP5JJjasXF+7UbO/Z8lyEShOtuyysxbk+51PHvFjRjx9ZzxfX/hT8W/8f/5rbe5fevrRUHTn/5z3x+//ff+zvj665+Mr77xDciyIkvcKCeNOqv8hheEmFTuXvWkylKqaZQrAP1a2QcT4+kbj3/GYGWfVS6TH49HCYnK3WUAj1Ezk4o6/tqYwgAi8haXu6mUn+XuyT/OyleXAXEBpOOynd3hbgaVk6EKNpKqqpD1n3oZGJXHAK2nY3IDSYCLpnLK45C9ipn+GRrNoht9XNGspkxsGoWUOJXuZsPjIKY86XOskSDFPhZ9aR/4U7APg42n7AMzyTP7wPIMzXfS9H1lH0SfNn3PGPDG/1Xt6dgIo/MTfxVnqoT5yFZWVcU33ONxUJtu+wQGkEzsmCbjZkgbGYzSA3JH9qGwO7ugaoC1sSmfUrrbcFky12HNX5FgRDeIyTBvVwc+vT84x2RXl9iHwUb32UUuVn2IX/QHO3qWzlc9CY7J3ENItSe7RvUiQeNf1LcIi/KWRMFYNlq2Ogc+kHLMIerjdaui9dO++V3xQz/yQ/G7/sjviY+6XhQ0/cH/8A/FD3z/n4qvvz4CGigtcvkX5IHVvDRWuPKwesJ8WO6ubKeOQiry1cw0nfqMOk0DhRR9eI4cBLby+HguPWNAaTH5PQBI5d1AH2acZ/O7ZcDT0UJVPXBOQAssQcZAFf+WBEzSUWbHuange2X0qBAdpeoI5zP0lcqhWq9HDRWY4sAJhpTBAgS8c4ONVOsYG35LRktH/WhU9DGDNwvRR80n9iH7eP1E7CODAF6X7YP7/Rpe1D7WymCXW/sA2TsZLEykd59z4w86Npp9pP1OZLfsYwTzm/YbQJ/ZvHG3IH5FHwyrvT5ox8RmVjm6FWy442u1j4UJ3LILL0gL9EylrE7sAxa7tI/ayb19oI6O772fZbLOa2HPL+yUvXUA6ZvB6h1CH/TKHIbX/VWN8/4gjP3WGqSP4HVVBhzEo/3WGmkfgg0ng8f4if/R1uCXsqrPmWAKGx9h1wWZOtsq8YmsAAfK73TrdvktYr766qv4az/x1+L7/sKfjP/XH/m9m6j2y15PB03/wR/93vkH/+gfivjmN4i5/Dd0QNDohFOoGEISKFlx+YZWUCo1p8E4FjhPXfRhQC5NrZBaFvD4x9QrMThKrqx0bbIB2Vx0+sBIKytlGaSRBmf1uyZKCn4Cs0gaVnqBdftANWB8FNQ3fQfIpRVFSPYlF9wwtemb5+uMuAbbFfzWsFn8oj6WzS/6AvgFWtCh8qYI9FFTdTFM2BhrUylZjDD2gRWcyQJ0DbZYXeKm6sn0mcthg+xDgh6eT368wUaTQdIH+phClPgB0ofqaG1IMxgvZWRAn2Aj2F9VUBsyX3R+J2y2IHtrH2DHbL8b+0B4ntkHzXdiH0Rfx+TWPnb+ALBx1vTd/cHGX6E+xH+Tv0J9YIQ/is9mH6BUbqoW+8AIddAH2wcYrT4UsWip5MHZ76EPsY9ySWAfyw20DUTsI79jL1mAjiJtR/e8keMMAMlJRDEvGKcAx2DjIRb1TZNUaP0fritN+F999VX85E/+ZPyB7/sD8RHXN5/9wQ/84H8c/+H3/fGI8Q1SDB4LSNBfWekIAgp6am5kjTJ0jUbx+5CTXfDniN0MapI+pqVVSjIVnbkOPZUTwO8olGszG6i/GSY3slbQpcC39E1dRJ7aWPTNNgxogu2Amr6BvtTBmo/fodGaKAfIAxUDjkAfKBuwbmVutYuP7rFgc1Tjjw199FNRzIJObXBpqxtsDMDGrqmaAnKiT7CxkQERLfZR88HxD+jByUAvPXYitU3GhsNkgI5q8xkwX5XkFRsOkwHrZqCROMRAR2XvdBSNOd7g0H47NkgfAfqYYh+oD7SP5g+6jrb2Adg4tQ/yByf2gfxusCGmj0BgfhcOlz52/ipEBht/ldXhhZczfzUv7COg2jfBPlT2qA/aS4KuDDhyHFdqkC5rH6gPwIa1D8HG1j5ihz/YmwZXlRrNZDMiAwVg2jkIIflRXT5kUesWDjTAbvo19O2AsOb6ya9/Mv7I9//R+L4f/JPzb/l5/0Xv5L7Q9XSl6S/8xf8k/tSf/dOPf2/mi11vMffFHPPeLG+xnJbiv8hSd+c1m+jr5rtL33jxj9+evjfCrve391g/IXBcTDj2P31i/dG/nS484tawF9G3sY/Z57tjtrfpC5jvhOix/Q8339yOOxXLMPqAoKf/cVzMV9xZfk/5OWeS9tjpxrEMJL7p657Od9NfbRjcNuFjwdQOGG2c1UeueaEPx9wOzzrM2YeTn72HDw6cGVf/7cCxTlaCxdkGTHPv7NojFTH51fgqvp5fx/f9+T8ZP/bXf+zu5G92PR00/aUf/svxg//Jn4+vIEvRyJZLvb1plLLzCdnxrN4ZyhyORbjcDQLF7KMCb71FRw5IlzaNUnWjlbuXSqvJGO2rqxuERNgHWWCWoKX8qCoXMzXbElkqhQzDnc6gDEoPkSXcok+OI5M+monLu4t880BA6arE6xqK68hh0EB6v0zSF4mJx7KdYamUk8yKLsBhlq99w32d6+OEveG+HjcGsXR2N03VASVwto8lI3rnDdjA7qEIVblVm8FGzTdoZDXIw/F1zldN37rItud7ABtYxQzMyqVU6XSk/CYJk0kxdlmoBn0ANq7sg+cT+0D1YjVPP4fQJyOwusBVcbUPnI97Nzu/Sp/eWjg8aEgdqey1oZirQrwEtjbsg90yD9xglK7+wEwP/sA+hl2F7FcfmKEYAe2jdpj2SQ/MkKSk6Rv9QWyuUQPRFnBvWrjpNK/VoCIsQdaUNfhIDg3pOAVAWeW6XPFCWqzt65EclvWU94T9iK/n1/Hnfug/jh//1o/He19PH8/92F/70fhrf/WH4xs/43vIRWHcwuVufY8L94GMkE05FYLB1JpPg65DzBCxqZNY+hjHQKSlyslMdG4c629YTo4NLUG4J2XjxtE2ldmNS48a8EiC6VPfhOVu/swLG3tB9imz4/+W09G3FvNxT9cRBcsgj9XTM3fYSMWJc6ejlaIF32uypQ9tXvWB2CW8mKMGBjTpKDcJwoYE6YoNMZohN7PXBGRv35w767PTRyqPEGyQfQTYR/2gbKDRFxRMacMp0dcWMfrAXsAzfchRSNkA38OGe9KH6KjRcqCi+4NJuMHWgUv7CNURBKaBOUZteoVZaYhd9oGKFX+VfE7gd+7oCwqccwm4SfSljqb1Vxhc7vwVJnPVp7XRx9ojkECwgYgguxjiIwobrPTtQxFIn7OPhQ1SUtdRzTfJT1n7UEEbTLaHDsAG66d1vMlrbPYUU73qchZidrokWXH/5am97TDU1pXk69D7D/3ID8VPfOtb8d7X05Wmv/6tn4j46z9OUe0SoDoEDGe3TyzAZt3e6o1ZATlukKkkXJmlJX0rUIt9VHuMo2wZMhV04FjZYIpKwTyfBD8tEpemb83c0nkKfUhLSLQPPstWlWBd5JP0AY6oN32DPkD2Wr1IWqJooibjQCPMAZXVS1DLTZ610dR2IZWciWIczWFokzE3TIKDVqFCcIlBBQ7D5SnTUsGE4E+cDmbN7q3FpA9pmFT/Y+lDfaBThOpFpy/SGVdvFVQOgC7qj0czQfsQnWOAw03VXInd2kfiGvk8sQ8k0PqDsl/Uw9Y+8po07bl9KL9iH+TkjL8SbKC/Kv8i9nHlr1AfYCf8UMQ0wKqG57JfGQbDcaOfXTBiv/wEItkHVKM10G32EayHvJd0FQ53Td9kH8YfBNG3sQ8kCKDTqswpFm7qjy4q8RGsI8KnOicRQuFqNuyG+s4Uy2hYK3uTADblN+XeIqXLYH2fc8Zf+9Zfi6/n1/He19OVppiP/59wwUweMiROXzhadlkzPaIbg4wZJJ0feGKAgFmjMqBbygfnymmfZC+UtSzqasPPqfC7ykeMlY4qFn1nTZTIr2TN63tlG+yIYFjRh4EnNdiWIWXWDMA/bfqWRaaSHFo5AGyk3LipGjeGCTqqo8GiZYYYUjp6Vi/qIFU0a1Mp+lzDPcugBIy9Da7qRYkj6IFlgIkAHoHhW8eLX2iwHRxodPo4WGkZKNKXOo9NJWcmTYU/aWqFDSZAR0ISw1qaqkkfAfqwTd8KNtOYSvRd2AduJNKATvaB/urMPhp9F/YBmAzAZPoDMqSNvwqxD8GGa/rGyN76q3lhH+CzWahiH4C5ACxKMYH45g0G7ffEPtQfnNkHaMnbR3+67dQ+iL7CHwXEah+CSYSO2keEwfhxT5OCtqcYHJw4p/zOgSJg9xhfvG1soYneBguPiTWCjXj8KyAgjyyorHtfa5LyPter/u25py/D36uacu/+9BVLfF7fZtd3tM6//Yh+a4pe9FDEuPmnZ4k1Ed04+a+X0Pkq+W02VL9PzDZunu0nl/NtV7h1dzt03PilZhyWaPezt91A33Q2rSrdWWQ8f2/agc9wshW+kQ0Goc+ASMbe5ZNWGRRrvef1sqApy4RR2QplfFX81KOGVUnC7I2ajLEiEl0ZWKWuOFWb7CrbilG0ZEYA5W4swWMTpX2L6u7pB1iieMTgWUrvSZ8eNWBj7ww6CqH5oNQbVQWzTXYBMsCjkNy+5KgBMzlt+l5ZD5JcfzL8QnKc1RkSVjVV01GIHn/VkRwkx91QV1JO+7LgD7CBpXcsZxPIRAZZAVjDABsNf8JupbM7+wB9yFEDPRQRS+nRdkakqZK7wcVGoq+wwSVzkMHCBuiIXpUBmKSb7hpFEx576VEIHsmp1kt8JQP2B2Hsd+yDiKbME/vASpt5KKIbww37IPrcj6tkiM3XZB+gc31VAckeP7UaBZgs+spWSgdoH3jLVGfQPsh+XYQJ8wE21mSn9gHjFBvOPthWvH2Ygc0+SB9pK8YfIDaCbgp9wC/5iNkKMqTzNS4xtOzR7wsawQ3iDdiWWJx9J1aEyQJkXfD3VSpPWekivmoFe7wplr3n9fzxHDjtfhSCZ60PyOD7VgYxL03f4YGqmemEzwIlNFHmT3sDuit3VwkS3ke0PieRIkcDQUFD0TeBvnW0d930nUHNlj6OJ3sTJb8cjnVUQKWm71F84ibgG+5Hc7Kqj2XUdfwl9C2h5c1e7l7ulkvvsMkDBF3VoqvoCL5bUzUeB0HAZjtTufQegg1LX/bGsX3oTd/0DUFc0odOUekjlYey0ZpaIdBwR6Okj5UMqT5iyHwdG+0i+yje2vH1zj4IdIAXPYqLMPbr7YM+xT4C5rn7UATTZ2+BP3D04Y8lcKdAF45HrD8w+oC4U/URURsg2y80fQdjo+EP7HdxsrWP9Ad4E4KKg9hMjCbQF8Y+ouxkSx/IfH239nH8cehAtY/AQPes6TuM/crnmT6AD5YpstttxuLUyVnWUOzWuicN9wOPIxHPtQbRkn5FF+FkmN5svnzOjG7L73g9X2lq3gnCXw1+ZkWh9Kj0KEDEhAqOqWxEgIAmYg1BBD0ulLHhp2bNQZnRnaZvmg6+75ooaz7f9E1ZJGyovcmzZIAFAazkFE0jyGHMWhf5rAZ5yIwgk24Ch+7hEV26VaXSbEQMkoiuYKU3VZsmypTUZALQj0XAfGzU3FSN9IlTJKGCPsAR4DAyBXE27uZ103fhhipMJw9FaIx33lRd2KgfFyZ9UzVWvaSSg0LA68w+aD7T9E27vNoHBH4GBsraqX0QfWwfvamam75t1UtESvYhG6o2ffcfLx088VCEbDqt3LHsUpJSns8/FGHtg6rgYB/op7omec9Q+yB/APeaP+Cmb6pYXD0UEYP4JH3gwEB+xT4o0D1r+o6NEE7sYwTNp6QUzUE2s/3XAJwfimh8jOiySt5MwKQN7bUEB9OcMJq9HTEJv2UbdGu8f/T08kpTftdAZ9c0ipnbtALi8HEkyFrEG5gJVmUjncrgkTUfRNVHWYSz5vOmbyIAvm+bKAfSpxkAMDcCvrumbygWRQ7zYsPu0swiIDOCbHLRsntzbkMqkEnigMCSAk7MIzBby/km84tBVy4LTZRIH+pBcHmr6RuwMQAbXajVcL8CcmfACDmKQUL0sSoWOd9F03cUFpt9iMoBQmwfUcFPTdOz5rJfwR9lzdBk3OgLvs7so9nvxj6Q3zP7QC52qiRhBfgD8Vch9rFp+ra7BdoHYKO/SbuwgRuvfyiiJkx/BbKfRBParwgGdFAqmhv7vWkf1n439oGknNkH+qsz+0B+T5wi2QdUl4hfGDgIRKKPEPsAf0UBMdmv6GCnj1FBT/N/I2AN1ZHfT7kSauQMActU20IRBL7KYtdwr/rd4wUHTqBpBUL0FL3IgKdbEnnf6+lK0+24brhb7x8Vfkdd74+Px3VXbZ/q/fa/3lqX3xE6H0/d/uLj3om9bxv63lsGxo/Om+M4+Lgx3ysIvFLHvHtz3Lx3ug4EoV9qI5IgjyuSPRmhstg7Xk8HTZhV1CdEuaucvEqZWN0Y0vTtZoeKG1b1cjWIOqsMb5ootZy8otcsJ68IvZdSMfOy7C5SoaTamyhHjKn9QlCb1fo9HYUgv3oUwplm0Qd8U6l311Stx1WGX3hNhNd4yX5gFWxV7rQurk2USVNlDnTUEJxZ8cLRHER76ADpy1J+ZavuKASxiDRhcea06TuI6G4fAfYBDffbpm/icwq/rPKlcz0F2D0UoecFeCS38jysVDX7IH8F1Y2k68I+sJJ1Zh+gB28fO39wJizwV4TFOw9FBACiVHPpr5ZJ3fFX9FAE6MP6A7ORmRJPq840+9V+0wv7SMa7mVv7QBvBcpTYRwQfX2/tg+aLUKVjhafs19tHzYVVK2MfERGjKlNYqUJ/Fc1+h/dXE7Uhr3AIxvMI0JHxp1rVZSHUd67qbodR1YyrWyXXqg4tUjabN7oLulfjUQZkM6CjuXRETL7v9fzxXF6zPscKQ1hx9HTMaROlagEVIhVmaqLEJ44WTYdGTEcslv+SPglCEDCNXdzAYCOv4mVtOtumbzVMOQpBAKqhF32THEIccqG6N/Dpm/bkno2OWAZTPinQoVm43E2OF0vv63M6+lDnpSumT1RkmqpxoymdnzV9lxCyZG2w0TAp2ChdA/7WQxHzQh8zmnNqDCPEVR+ko5JBO4rDkTv7iJv2sebZ2gfK3umoGVdjjuxDxPy6pu8lt5L9pb9q9mtJBn9woo+MNIw+YmzsV/TR7Hd2+4DdGI93hsoAdCVKD1wkKxCTT8dELKnzkpvSdxwXQd8QtUhsfDbPp/RBTEH0adP3EPvF6Ff0URkDBRBNH9Z+RR+YuK0dBDCOEGs6cpjUeyhnFAjgCm5RPFdHjpBQoz5A9t3epscL2MepDMK0aCwMHXNQ+4KrvXzh68WvHOBsLSAzWuGDPqm1lKRb7xK0yHmiLUAHCmSnNZ/7sWQH2PSd85XThGHMJ36fixY2XJ4Pej4goMLgstJDqbJEsZEbQQ6HpmrilwMwfVQ66YONwL05l7OCSWyrT9IGVggZwQgWI5gRXTd9L2Rg5YCCJNxbgZbEYuNXKxviFCmD7lUvGgbIbU2jSDToiJuqa1PGjaA1GYsO1D7Up2vD/TQyaAIE++CHDjo2SB87JyXYaPYBsvf0aWVD9CEPRSA2eD6xD3HgV03fK6jdPhRBkZosIZjEoJvnM/YBNF3ahylibO0DPMKpfTh/EMY+cjnf9L21jzVSjLo/FHHIgPyBeSgigxm2laby2bFh/cEE+sBnu4ciItR+ravz9uESaZiv4gyWX5YDBu+ra24OSAzuU/+cUJTrGnDvTtP3qACMoi60X2uCEUbnj+mk6Xt0GeA42pze8XpZpekIkoJALJFpQFZgszX5jlmzBMvYVJ3g1egWg5H8biJ3qCCk/zOBMRFAZE6gD5pGx9ok0PgXMxLOw4IYnkAio8MCoBo9vS5GrpooVQ+XTZQojmRjEl0jhL6zJkrkVzMKMHD02U4PRVMZj+cXqkqHwV02fYNuWtaMPKJu0JGnjnYPRYDsF51UiVAwDoI43UJ9HHQRXlCYyAllncBvCH1zCw2+0n7RkUtTdWb1A+gbQcafO3Bs6KuNiYLHxm8ERxdiH5hJi+xtU3UMY79N44f9in1Y+1VDF32c2QfqA9VLNxdNNeOpfQTraGsfjT4rFraPKfYBRJN9zLnxB2IfZ/7qzD7QX919KAIUu4KLmdSLPiaJii/Cc/Gu86GPTbVum6/xngJigysIPoCsoMIG+CnXWG7t7aY+1pdKoKpqhPJ1OrKnDR9wveJ4Dq8P5OBLX+qQXjvu7nV3ru9g0X/HXG+ty0+df/tf39a6dKWQnwIy+AhZ7cT0zZ8Z8Yt/bcTP+4cf35+5fuC3RPyJ33hr6M/+6d8Vv/5X/23xT/xdvzB+9k//rqeW+eEf/4n4V773z8T/9Hf84aiqA18Y63zPtyL+8T8x4lf/wFfxPU/+O7g/+s2I3/PzI/7F/5IRWFt3yr2jK4yC/ap/uPnGHB/mB1/29Bxk7HUwwE2UWJU5baLUUirIyTVVr3K3//GImJDNmneIZBPlxOMvpQ9SpqRr0FFI0aflcyzBI12c9SZNxG8leZj7NRhStgXZGJaTlz70KC6gWoZZ0aaJksurvamaqnn4I236htIwZuDaVK3VvFbuAWysT+1F0ffL1JEcCPis6Ruw2I9CsOkRiCbAgH0s+qAKWz8F+9g5FgPxWq03VV/aB5bFz+xjgD6u7CP5vbAPqr6JfZDObzR9L8iOodBlHGJW3o6/BvMLx0F9OgZC1zjYx+Cj9CkjudrJ1Z5L+4huv+PKPuD7hMZ3so/o2LAyEPGe2scSWzu+qSpXpP2ivxL7EH9Qx2Rd5VSBXJUbsBW238IslDlZBiMIi2m/v/jXRvz8f+z5gCki4r/wj0X8rf9kx1/azDLVEf/Dv++XxK/7+37J0wFTRMTP/u7vil/39/6S+J//o383xUza+L7W/Uf+dMR/7U+PpwOmiEfA9Y/8qYj/0fdK9a2tCzqnilZhyNHHp1oEpXe/Xvxvz6HBZakygTpPjuUCd8cYWOI9PrksGVCmK8fijhrySRg5B52jDJePQoLpg6Am8NZgA675kBZ+EVtyIsctI8owFiBmtGE5to6/8GaVu8shVMm3vwfroA8DLBK00FcijzmxWi/8LmfXBtZnOuhDwTWsYyNZGw0IZCAP+irgwPf8NH3AhknHDlJ2xveUbPWxnGcz3NrOcDMu+xDZK17smdcgCFn7CJa9k0HaRwwaR/YBmBiyrqUPm1emsY8NNhwmk6mB6zr6CFZAn9EH9oXNjT4QG9Z+WQ2MF9X4iX2k/RbRUxihAOvKPiKa/epmkvYRO/uIog+DBtPSgCJN1M3Y+ytsqrb0YUvDAyNbf6U+G+DS9AG+rOsjYL7etEx9p7J/1HyCjb/pvxKvun7eP5x213xsQnfGf/uX/8LXrRMR/8jf+p8vPhY2UlaFg1/9517/T9H+yh9EHaE+tOmbjwC9HYHeQvzQBwVMEa945QD377DTtE3fuvnAJybaA4CaWSTNp9aKxjCKhvxb1G/RuDQ5a5nM4rF6PRZ9BTzO6rmpeqS3SWeSS0ySASZ2mJWSc4B0hDdglLlrqp4b+iL9BMVNA8EbMF8wTWQEzAhhA7IpzKSx6Zv00ZM+lj0Y2nKo2GBL9OHmiVWW6LRgsWMAXTxfcARDWXOQ7PV1D5w1A33mctjADXNX5Wv2gZUDwUaTQdIH+kDyBk6t/DodzQ19aB+wkU+mBTFJQeOE+dBw0T4MNrQSy08yqn0o/jo2Tu2D5juxD8DGqX2U1HizuLKPhRjARrffNTPS17GhyQP5K9RHlUy6v0J9QKSjD0V0+wV+QQRkH2C0rcpH86HjF/sIsY85YRTYR0TET/+58dorRRWltyXHccjrF/znvufV6/zs7/6uCIeNgcFMxN/8Y69e6lGlAp0vvaNPrHuoXmdH4f1kxrcfEzk93dNEG3+Ak4qg763pGzMBSTBxn9RMIDO3MUDouJPIUzk4Ko020nnZYFUMszZMLhVj2bo/ARGZXQc4LNx4yz0PHgZ0QchYhjvqXm68y9nmfNIsaLJm3/QNWTPsZZj5FH3gTEY9VQIeq5wx8IjHFp0++qkoBvmNKt1TcA6y3+hISxEYkC/nZMQCATTLgKtLEEAvfdBGzbJ3MtCL7CP59dhgHYl9LH6l6XuArdR+OZqoiDxMNlbAAdjA6lLN55q+BXSyWSxZYXUJaSF+F2GgIwxM6V8hgMoF4W90HXX8CclxZh87f2DsA/k9sw/B5Jl9pD42Dff4KoFdUzVWvRIvZ/7qzD7QX8G6u3+FwO0lWlUgfUAc5LCRMpgh/qBKV1v7MNjYmOyLrkYz7Slve405c71d8/XbLQbBb5SvRpli/nklA4sD8cHveb38lQNf8rori7eW2V2+PibA/byeud5al9/2Or9H4Fuz8W0137h161WLfFvx6+Z7Yzy/9f59a7on/P8t+p5oGv4wMx83773walXKzb23v+blnXnzd+36IGW9/HgOy7vHuXSVu4EvzD6O4J4qQCHRLh6FRH2ukZQttHL3GlVNlHrUoKqobAt1gVUaOHeF5k2s9rSjEJVB0h5UYcNh7riF6GvHQXr8xWXM1kSJmXrTEVfh8lFnWLfRdwzEMvtSsvZP4D8qyvwKa6usq9VYlAUcB/WjR9aRZv6ESahozlq+8LL4zVRIKndNRxPwMtk+QA+n9jGA3yv7QPrO7AMw2ewDFsG2Jyd7JAabvsk+Auxjgj4IG8JvkjCFX3dUuGuqdjoy+pBeDrSTU/vItQobe/vI8mWwP9jYxwB9XNkH8ruzD6hauYZ7fSgibQFUjEeFCxvGrQEOS2H0eoCdv5r8apoCFvtsxEYQfVz1WVXTmq2U+ZivLHyALMaZfRhsOPt4zZW9PCMSp3xs+pZrlYyoAT3AfN50vUNYk4+g55yPPuYoO8qiH/nxYJxjcRCZ+oDrZcdzc4Dz5NK7OlnsAzmwEXQ+vJIAOmoY7Fjgx7WJHSDHcjIqDGkB+ZKYZeNAo6lP9zIyCazwXSOwGG4CFQACLRSoRRnucnZkQLAJLKezk33SJUEIBANEXwY1SJe+X4adbOcX9EFB14k+NFMUfaxx/R/d7QFRbyRFTPC6WpIe+HkigwqWg3DfXgRnZL9r+s6NdyJ98II3i43o9kEYG0Kf8ov2u8fkwgbGnUwfHvPME38AeBEPXTkL2m+npY6/WEn6ssN6QnEIXox9xLl9LNnnJnrHPvLWbPaR9M363NMX7aTL2kf0pMT5qyCdd/tF2Xf7NdiQxIODsnUHnogbRh/RFMz2MUpqSwxb+4CgG4/giD70B3lctbEPg40mg9des/iw7S5vudSSEchZ7e2trtNG+rbuE03fhL+PCZgiXlppGpgVDLFs4Kewy1kaCDeiAivNmimbbJnRUshswsc359KF2VpmMmzAquByRljZWMytdQdlbK7qteSCPquAxRbJ8zGIcIO2Td/kxHhd/LOrep01facSYRxuYpRFQqCDm6tWlVAH+7cWlwPfvkqA0mB9rLywkXTB8gPoIn4Bi/qYOtMHrxJY9zIpwKyZ7UM3ImQDszBtEGV+mRbml5ta+dHmZb8gBDSTnK8CK2oyhowVK7DlD3CzLlpcZQOrSs0+epmF6UP7iEF62NpHXhf2Yem7YR+NPtEHBJyIyWYf6K9W4ob+CvUBdsJN37MzN6vhme0X/UDhEIOTZh9AE1f3xD7ATtpDEYtPcIokglFDmn3kfGAfAQMTGxHqDyKMfaTOIalP+tg+3uRK/VXy1QD4RtdInADWUFRvuBg+aJJrHEtk6jC83ravFYBEn7H7/tfzlSZKDkwIiPsX21aOrGLRqk48BNwyowBnDEKtaHWkvfER02i0RqyF2VipFLtWPWuiRH5XsLfujTJmzFoumygzwpob+upo4bLpO33FAH5FH0HFrNIHgDz5pXQTgpVjwsomixYMPEtLspcOpKk8Us+aK1DsVS8jVJB9BARdIfQhpiNZKwLh+9VblenfQgI9ePo4WNEHegaqMJuqA/gVfQA2Ajepxi/QNzb2ATwS/obYx9KHrWyQVCMAGwHYICufjA0OKCcStrcPquRcPxRxaR+Ovp190I4O9gHYKHu791AERvbWX53ZB/orU74j+0B9ABZtor8InEAs2a9UXdP2TNP3zj4GafzcPgCTbB8IqKWPspU8Fguxj0Zfh3OA7F9/ycMitDG88SUVnC569YqvWQpkKnsO2ZHx4/ZhjAiwraL1rbTw7PX6FzO89rqrp48KK7+Tr7dG3Vvr8lPn3/7Xp87f/voIGdz1Bdu9ddwc93m166N2/y99jS/B2pTP97+eD5ow8RPCKyPGijBn9lhOpqOpzAiqSIq9Elj+7W9R9dF/r+6vcjJmT3LUkPTJAQ6WDseMLPWaJkr7ltd2VIjnvpB5meOqPGrATIkmlOOgCEq2PL9Y7uam1qKPj7/0/TJLR3kUF5BVKKi5Yn7cqqxngI7yqCEqY+lHDV0GehSX+mjHQaNhoyoidVOP4oo+fccON32nPmzTd6SsMhOfsaGvsBEGk1jhwayt86tHhc2UhV9nv6APPIoDrevxF/mDgsHePmiT3T8UsbUPrESf2QdWsq7sg+x3Yx+YMU9jHwH2kcdfxj4CCCF/cOKv0n7P/FXwUSHDno/SQecK3t1DEaUN7mFq/WVX9gFfmj9w9iFGtbOPCO5L3doHEoHlRrGPNwsG7XGUlD7f6KJQo4rEvO4broUVQbKjxZc7ueCSZv04qnoa4Is/Kih//t+eG0UtN/LVmTcLaxL+cGMDsQaerwfMUyVuduC9SXF4UumocCad6dYmlrt903cGNYg2OZMF32Tomx2T1FQ9yICWo3FBkm+456CL9VEgTn7HiT5oEzD6gM3RN1GuT8YG6ipFsIqtdLSnx0EVqKnSW9P3xE9nrAsTs2GDMbnmWfQ5frHEXJ+dPlJ5KBvbpu/ExpqvH89VL+CJPtLXGH0gcWsTIzbK9loTvjlrpScVxT7WKG+/xj6WP5Cj+RBscNBg7COZUx2xfSR96Q8cffhjeVJW/BXRNy78Ve0HW3+V+tg9FKHnmzM6Xhaug4Z1vKQvJlB2+8jDkgv7iJv2AV8wmLH2kWOntw9KBCcd03d/AP4Kg/cGIQlw3uDqdolrvG01JWNe+Kz/eMvjuWJnLpbwyBgVHE72mvDsG8s/4nrhe5pKsUn77ABEgFLTd0Pl7IZEmdH6xk2Uj2EbYKlzArp6UzXSV7USx1ynr4ZRhF2xB9AkaW5WVNZ8G/omZ9JMU0SmYliMQSkf6/qm6uiWBI0Evqn6uokyCZCM7bzpewYGxlRhQuaw6XtgoFtsVNYMQSNslDywbvJ8jr7SCzdvclYfskSKd8J8AYkA3CMQkUPbNFVjlQXsJCsaJmtG+8Bm75gs+17ZAPugykZ0+gwMlDU2X7EPos80GZM/4KZvLtGwv8IKE88Xht8I/+NBsj9t+l6VDQh2umCiZC+bSW+qFvtQ40+du4ciomipYWyqAwhU+6D54F7zB9z0XcGb2IeYI893Yh9oYNPYhyTmVw9FEEGoIrSP1Ee87WX90NsHBrWEyI/2utdfLVka5cex348DRHWUK8wAXc4ZK6DP+OoDYqfnK00oGdmEtNSZmVvLJtHxHiOx0QsjyqgMKQ18IHjHBX0T6IOq0kD60MhGEHMSEXX6oFiU9CVXTB42fSOIjoG26RsDtSjDNeUiykpJH61pdP21MjfawcCQ0L3tm6qFPk1aBtJUM/asuRxuoNZ3nfRQsSj6WCyUvGgMgo78uOmbqjGTnsRjVvcsfbA/jI19rKwedGTLDksfwFzPmiEBSFVKBE3ggKQDsHHnoYimYLQPpE+5mFtRBaH3tKl6pux3Td+BOAQgAFzAfmdiA/0V6SMu7AODYJC9ZsVlvyIY0EFJA/QxA+xX7AM3PSkndPs19oH6AHatfQDRp/aB/J7ZB2ofeCz6jH3QkwP4XewD/BUFxCH2sfNXqA/a+N/w2sr5bS9yA2SEahhvtRba5e5VAkQUf3e2BftujPiof0XlhZWmG9R+ED/f/tddcN4dd1fQbz3u8/q461Pn/9m67p6cvN0Jy8n1gWD5dsLzt37kXfj84R//iVdPt5+DAfOjLy+h1BzfZdZw+njre+94vfifUcHqWgXm1UQ5B0T3WY7C8tsqJ0dkJJoNekcZDrJfzIrsP+DXlqiSKjeNHiVXrJyYJko9/sqjEFwO6YuA+VRewDeWerdNo/0dQHVJTX0vgipxj+SsKnd6biSNvVgWxUrhZZNxwB9JBKUDbqouHVU2iOeMUgWLooXpiw190PQdRDRJ67ypetP0nfOFnjM1lS+dC9L4yIHo4pF4JLfyLaxUkT7miaNS+xhgH+Yo5NI+QA+veSiChRXF784+sNJh/QHryPqrUf6q2+/OXxVdzK97/1JVExt97XSzdED+CnRU9mv0IVVspOnUPmKoKVzYBz+AcP1QxLl9sPrPHoo4/qdA3u0j6gRh2cqthyJ2/mqWRtAGIyLiL/6+eNX1F38/l/1Ezou+3/Yf/cevWyci/pU//P2RFdcUOO6/j6//3s979VLxe34BHs/xnhIoe5Rzst9loJCcdO9joqeXxZZgUwzdqybKY6TpiEVBP0ZhkyfOZ4Q15ROU05uqI+40fWsde8LnLkhqx5AQdFHdGxxLBV1YTp7EJzdVD/40IhhJvmmipHK3BCZYel+fZ03Gx4LaYEufKYJJn9umb9iQ9vw+2fQt6q0NlY8aYkScNn1DoNH55Qg2IR5In3kowjTcN08u9oGYoHeC7exDQSL2UfPpO4BO7CP29qHYuPNQBH2KfRQ2Iu0Y+bT+QHRkSIaNFeVm9DHFPpw+ABtNH7vsBvFy/Ko3eDsdMS0Nf2S/HRveHzTFRbOPVBEft5w/FCHCEJWv75SY5U+H2C9Gv+KvIJjCo5ztQxFn/oo2fH5zePLxfb/x8flz/+F46vrWj0T86PfF+BO/AeRcvC1JLvr+6d/6H0RExD/xd/7C59aJR4Xpt/3xH4zf8P/+j0R+wvCx3D//yx9+5x/4s08vFT/6XY+g61/9ZYCD0UDebHVKsE+6zDsQI697pP/3vV4WNGUGVYaMWen6rP6jlQ0FfIcscXIW+QA+ND0efmuqzid/r/lC5guYr+alfo30nkLfwTBW0SKC6MooGOThBu4avBd42j3MbnS+whAlX22+dLJX8/Vxlr6wPxViDrWc8aY6h3tb+tp8RsyNPpkPApJL2ccN+oBhj41rmbb5FC8nutxAgy/cLC7nM/Rd4fkEG52+Z+abtzDk54Nb4C7u6PyW/caOPll3Zx87bBzp9aX9rjT81H4rgSf7uDufk5Wjz+G5zeex8Uhe7/gDYWRDX8534rNbwLT+0+CP5sME+Sd/JOYf/w0x/n//q6xmBdBPskIcVCmscNV+C+xGxD/9b/7B+KeO4Gls1+CHBPCe68WLOWNMpm/OiH/+l0f8xl8O88Wq+Ayyc1avH2eN0AEhQAa077IfxYTi66+/7gp8p+vFp5hl+xkbU9ZczhuqSgJ8jNyXMa8oE3GFcm4E4BIQuXPTtz7xcdH0vRRY/0HAQnoqmwTCMjQOMhDbRHmSNb+2iTLBKDrSrDkjfOS3Zc0QqAlrmjUXTYcshjoiyKQBGz2AQH5H+uLAYFqGEX0p+yat1EHpWujDUjFVIhSMtfBV0zce8zJ94snRPgCLVFXKzM1Cgy+0j6jvePSLR5IhOiqGooRu6YP9Unwm8Zs4hB+hfUCwcGofmEEZIDSNHzhEWpCmtJXNRtP9wYA8kAMDwqKzD9RHXNiH6GhrH0jfmX00fwB6AaLJPix94KPWvTN/1SEeMxPuQx8wsNsHZ2nU9A36wMBQcxHSgVwWfxBo9gQZA/dF/yA8dBxc2zlhF4OfwGDG2wLhWTdRAsKQNYq+mX8vflC+zscWDubGLlHQJ7alyVcUToZV5vtfL+5p+il1zTced5f/tx73eX3c9anz/+xdd3Q0b477qXp9J+D5jo6Gv3efrS8PhO17or7wvXn7t5tg5u66fbbbd9/zevE/o0LRLlSNTpsoZ1Q2e9ZEOStj7U2ekDJl8nFE97Fp+s55bjS1zqrOABd01IC5X1MhZVuQjYVpap3Q1HrM9EwT5Rj4vTdVUzUPf7RpoqxhvomSqnlD+BVsrE/MvPo/2inNgly3Py5p+g6A0wyhT5paydpBH1Dex4Zj934Z31Rt9AHYWDov/Il9jKZg0NEN+4DM8NQ+ABvePuChg6WPM/uIZb8h9DHsq+J00fSNWflZ0zdUZE+bvoVUpg+aqsFPTR1J1U6u9jR9THgIJJFxwz5AB/xQxIl9yNHK1j6UjTP7IPo29gEVyO0/ugsFgFv+aoI+zvxVgZww2fzV9A9FePvd2MexLjW5x3w0Hie2oaeVqlvN+L2cRQjU8Jxfiz60W3oAAvzBGt702/bfrg++BzJoNlgy1cZ8rEppmXWerEG6XC06aqvJe9nHnMbQ3/l6xXuasGnUv1DMboRDDCRCNlZWLHfXR3kCOgpBA0ZDx+MqdggJLFNO1oCIHFEgOdPYI5a7xzHPhE+m5fzNuUIAiAA/KdDJYnJtvJdN3xM/lT5lTenr4HVN1Uwf6/y06RsCDTeMdJTHw0JfwOfagDdHDR4vennn4LDhZMAjMztg/Dn7iBP7aOBA+sA+cj5HH9jHlrmTpu/hMUliS/vlo5Cmj8m0WH2UJ0e4qMaFFtGHYEPtA98TV/N1WjBYPrOPtbnHBTa4qXpvH8PabxuWfqDBj/zVmg8DaI8Ntl8VguijQ9zrY4p9OH2gP1B9BK/b8IK6JjwXgRQYHDwWxPBBp8nrigx4XzB+FwPE4GOoCoS04Z4x1o8AXVuMACFKH4yhoo8DxLGxI5FBA5ssS4HVtQwKVl0GM5xe3+96+T/YC0J9KAI0kQxB1rzuYSUHwIHxFWIQlUCJL0T21H+yaIFMBgMWKiFK1hxCFxZAYikL3axmD5ApjBAZZNZczlKbPE+zZsqM1mfPmh/ZSARF/pD+c28XO+tkI+mDn6IeLH2cNS8dYUMlV15g88TsK5iW0hGJGegDGWyzZqCPKp09a9bKhq0qBZFMG6ZmzTxfF6Cveok+kj6QAZJ1gg3CJMne0Qf2MTw2OCNkkVMlBw0X7UOwQZUcpCVx6OwX8Dfarb19ADa6fQy2D8BGbuTGPsprgHoD6DPYwJ4PxAZWWfhN2khfx4bkGBw353wgmAB9GGxgbyFV+QAbZL+oasUG7ZOMDaJPm7Bij40B65av45+2CmfSNfJ3aHvp3ccQmUqlGH6ryQiZd0TEFKC2ampTR2FjmDXU3nb6HRFkGKCP2KyhCUq9PR1xCnpb8nCV34n/ydX8FiTjSNizMSAm/K2ASgK/97xe+G/PBWUFPbqtSo466Bo1yuml4fISTQkEmBI4GvrIiWBDwokQdQC80gE/AQPkUQVhyYBStzSgAfTxEzoPcOQ3+mxZAQYIk0QvWRrQtZqqaaBk9cRjHVvksuBY0mfDd0+fOnIyuUgHiE3fuHEtWS0610aY2OkQJOeJASdYLWbN6Oxcw/22yRiuzJqjfFOJBUIFyppHoGNGQFfVS/gF4V42fVdsAfRNoM833J82fSdeYkMfwYp1gPKQjRWrSiOWg1z2K/hTHUWUwBF/fGtvH0TfOLcPWPfUPhAlZ/YBctm9Zf3OQxEZcGQsNdwwwuHabE/9FVSVmn0kv11HDETRB7hbh428N0P8QdYTaP9Y47TScPuhCMFfwNxaxWg0J4aMXLbOCYSAfIAuQQRiq0ILyV70CxhS+1UcogwSl25/flIG3RgQryBzWCNkjSYDCfLwngZn73m9vNJ0dd1l6O64u1HlW4/7vO5fnzr/vF57vUKX99V7b+S3O1xu0/cRm8vdSsBbj3vtNd7y3nzxb+fNcU/da9e8cee1170Z26gLnj7SNp8PmjALtUchq4QbVZKbWhWC46gRXE5GGXEafwgLqzPcJPYIWbWHaNGn7/xA4c/104p2gRiMioFdyI67DKpBnl8t8OCcS66YRPcmSqjCDcgC6KgB6auB1S8kMoDqIL/wE/kVw53Ir6NvQIWIZW+bWqVcW/MFVGl6bYb0scEG1qK5qgKPEiP+lj5sA+u0OgexUPmeqjMiQLYPxuSpfSx9bGTvdNTsI8A+qGelYwNuVdWM+GXY75qq6RF0omsCfWAfo2SAn4oN6w+u7CNQR6CPM/sYoI8z+2j+wNsH9YnME/tYPnMM4w8i2H6v/BXI/sJfYbM382v8VarB+CvcAmL5A9FH2i/IHn6hPrvmq6bv+/bR8ReDj8Ofa3jGRXqAw1WzblsDxs2I4y3XbKtMiwmi1N9TRavro3iHfWHyUeGc82i+FjtC+17YRVmvH0xd97FG23/vNH1H3tzamy8nfvnrBcdz6HQClIRGgC/sws8IfxRSskdFIEBxU6lP/1ZvDqyw9F6L4SaQtCMtGlhRE+UQ+mAToKf0JKhA+mZ9Fr+GvnxqCOmSo590sjyw5sOjwoANXelL1rhSbvSxps7+k0B+3fk1ywCPGmg++hvYh0AQN441IjdZOWqocrxgw+qorknWuuibIWoDbIgMCjCAsSH0Kb8dG5uTkAo0LH0oe96AbdM3bWIn+kD/rPqI4PnAPkgfoKutfcBn4U/oC/AHW/vAQC229rHGnT0UgesKa94+Au1XsWH8AUY/4q9qPgwKN/7qGNj9gdHHejIu9rbA9iv6aPaLTbwVWCE2tvYBWi28gJ0oNu7ax2YPmNs1Sn5rt/FvuY5mC+n7xXmibVUgxImCbfp2vBkM7TYut4aTgV/3ftN3D+hYBn5dxYtvrqf4QB3RB1wvOJ6T7Ywyo4AKQmUFWtnQrICiaCgxqPNUBed8VNngYAZTMjbgUhgtO5Gm0b7zfEILZaq96bsQOEl8miBQlSXHmWY8mq+MWp8MoioLONQ0XNXBEiXNx5lK9VLUJr99VBqemOqNkNyAjjY4gC7NmgOwwc3tSJ9v7C1nAvSB7FXVygatcQyYOlBkxfwifSIDDMpICCHz8WZGvQ8ig4BPdjbSgJ46qoBkRJdB2e9IPkNkX1VmxoarbKR99DKGtw8QS/nvs1cJlO1xY6roQ4Mtsl9mt5K5s4Z73GC06Xt25ub1AwGIQwxOmn2gXVIiI/YBdrJ99QkE5yQC2MzIzAN1DvYREc0+ErO9B7CakRmTmLRc2keKRdboorI2vX47HQCdECBY6Lb/GIMNz0i3PmCArinxTPKbfeAGk7gGB7B9jW3TtyQFKoMRKGcNmHxzPQdqw+qX9qZcb9lPvPv1glcO6EbNmQw+HVGObZTTAyDTjBO+YGQckDVHUBPlYw52CAkTjjiilnBNnrGhafJ3S18dLazv26ZvpGltPrBgmsLxJf2VOPLKfFKoqQ9663jSF0Xf0gdLSxMjoKmMUY8qypGDgWQAPdj6EyO1cmbNOQwb8hkblJXC96u3Kk/CRumBs6UBcwR9VzYKpuV4tam6hAnHTpTVK78DftrtAwVSb2nGLA1zdFdV4uZNjEgmMOey+oSsTWhVWKAPwAZW+dg+gF/V+pl9ABen9oEjp9jHMPaBiUCjL4qAUm/nd+kIEwHZQLByoULlTap8FOFF/RTqQ/xot99DBml7c+MP0E9VYIC5/al9ACbZPrACAQ3ZwfZBVSBrvx3OEd0+IgzGjzmm0jz3OiL74ZIUEDPPdTmWFtR3CtaMaxptjbkZ6G2wVAkyGEYGw8ig7WHBFzzMEijzwUhAW6297r4MrJw/4HqbRvC79H8cn9+5190K5d1xb63LT51/+1+fuvzOuNyG9h7jvt2ucX1v3hx3/949B3vXDX+JXyv909y7xfsr6Xu1DD4Yky8+nsNeiRVPZgkeRmZlYgdajKRb+bey310TJVVYRhyRcj9qiEULlbtbZTMHUrmb6BuB2Ri9qRXK3apkfXOupw9KwhFViTFHIbumaj2uIn6zfC4MY8U3b0HJFelbx0EBmTDSsvRBOjfvXwJsUPI+OjbCyECP4oo+fccON32nPk4abDG7mzOEvt5wHwaTdAwF1TfPrywSHZN81BCJRT0KoYcioJTPOpdj2oJB8FEITUGAuWUfoAO0lVP7wErWmX0M0MeVfUD1bWsfaW8dG4GYTPu98FdYST31V8Xnpb8CnSt4uak6SAfkryb4K/DZTR/2gZl4zj6w6lLlnm4f8P3SPpY+NvZBMoATCZYp+Fhj01N1BHIuYSDu1faDTymarNhWFysLY3Y/cv7FPTSURSbWOVZpSQZjpzeDU5XBYDkH6bKwRHjJJbTpm3knk8Zy9xA5f8D1suM5EDC/b4WNupcWaRaunqfzjDTzPNM+AOPOS9ePsLGX6SPfJOVu/syLGnsHgYf+qQ0JknxD8SAnC7eKvnTa8OKupAsBWMji4yp8Qmg5CXf8tZbv3lBlQL1OgQEiHgdVoKZCVR1hiXYN68dBUYmE3Bxy0zXYuuOgwkYY+kjlhj7T1GoabBt9sIkxfUYfchxk9QGbWNMH6MraRx4v8T3E31p2b78hl2uq5uMg2pTv2Efs7SPpS3+AdHVsaGO++qukj5KSE3+FJ0pJn9FH2u+FPma0e43fFSQ1+51B1O3sI+33wj7gk/Ci9rE+79iHDqQNDo5v4sI+luxDFzH+Spq+x06m8LnT0b7hmRNBSq5BfngPA79atzd9w2mW2L7HUF+XE/N903exww87bPx4kz1GNSCDY1wPQu/JQODXZbBrrv+A62WVJmqqXt8mCSainEfPjJYsUsMUGdd83IPTmijrx6QEfqQxR5HRHMOKPgE+07dv+s4zWdgwZjOu4CC5PogW6qmgQKgNlKyem4yXrJYDr9gcHD1G8amW0fjUpmqubACQqbJR2GD6eBgmEQPpCn8zqzZicEwfVzbI2aGngCVQvNTkDhkhOQIkOsPyGkdN1UDL0kHJYDYdkJnkfBV09yoay6DSNVAwYIObjHsyR/oguhC8hl+pbOAGvRpT+a3jwbpZKwy6RbLHfgyuMIk+0uGH8NubvumlrHNadkuMZw9FTMJNBSfGPhY20D4U9pOHJ0wGEKj2EcY+wtgH2W8UANU+xBzTS1zZBxoYPRSBQcpa1zR9J2ta6WFbOWv6xodKgkQPiTTYTOqKcLqTs8GVwa6VFa3LuZzfhyRYwKgH9IsyWN/t2+KPL5p8YUKBSRDJANZPGUjATnvsLFSm/c6i2+1HJAMSaq1l+z7f8XpxIzhnpSPtjRka8Au4lm/XyDggS4sIbKKs+aBBTyKiFt0GFIuiHJEK/KFzAAk2jR7r2qZvcU413ygCYEdAU8xNymRunE1KKRZARE3flDUPAG+nSxP9WqkozKCLjEFeJbA2aBNwZrBH9HUnoT777GZlk9g0Kpk0yH4MwYkoHmMLzIaY38JGOgctOyx9SGXDN1UP8H8SQeOFmzhg486bpZuC0T6QPuVibkUVhN6zpmrAxq7JM9A+AAhFH9pvyT7/CQ3QUf14wnxzw69rqnb0iWBAB/Vn0McEvAyxD9SHlBPIPkAUAbbS/RR+4ZvsD+4/FLG1D9Q+8EiVg/XHJAXtA78PsDeugmtA3O2X4cz6GOCrd83XWu1IR78NOFi28N2swffQ9U/gTZqqIfgIWk4KAk5H9Keu8/rzoOlqmreXATeb81okA7MGLUE2XesVjyznj7he1gj+QRHet811V1t3x92V51uP+7zeXpd3r09dfmdcuqm/17ifqteb29v1wPnC373qcpv6Jjl6pQBu/fIpGdyl88a9+YrfStluM+79jeUVjeBQGcFM3TRR5idG2XS8xJnfVdM3HnnRUQguB/RhFcw12dXnqsSs0qtrGu3lbpLNgE8p1zJ9lQVULgbnwwF0ZboAlTagZVXi8qghyve6Jkq1lX1TdekIs4V2FCKNvZXNsHh7k+coo2LF0c3zpupN03cspYeeMxFNBacbTa1JF2OSHoqAsr1vqt44AtXHgUNuqr5hHwg60MO9hyIu7AMz0iv7iAn0bexjfVWSQfbefsU+AuxjTtLByn8bvwmNC381g3TADbalo7Jf4692D0WoPpr9vsA+4Pv1QxFRwj1XOfiDE/soRrp9oD+wrQOFSQdnax+CP4txRzPQt/vXAKgsjnJ2ssJCDGFXbAF4owrVYKH3hxjAZqRSlRU5skGu9qQdJfmyRvZLsm/iahNjDYpmucYcHRv00EHyNnERCKw2Nk0ymCTnj7iePp4bC2yw0SSfjpEpn6Cc1lQdEXeavvWcBwGYYpYgCTfyNdWDLtxYB4AWgy4sJ0/iM8vdQ+gLJnmJYCT5pokSHOqixR0HrcCK/xFacGLAnmuibNnAtqkaj4NqozzvpMcmz/qzpS+bRulm6E3+V++VX9DHrM8tfeDTT5tawblz7Vg8OeFP6IthSLmKmNg+IueR4+udfSjozBFC2kec2EeBgz/FPpK+nE/sQ7DR7bdiAKbv4qGIVJwE7jt9TMGf0weqV/UREe2oS+0DEpot/tB+gRZvv0/YR1zYx0oIrT9gpRuVe3+1afpu/urQ+a2m7zEsnJs+huojGOMYw+W9bjOvafqm+DWCZG5tAWSfeE5Vzpx7OPsNtZkJ604v05syWANa878E+6jLugMxct6r5KXhz8h5iJwbJkX2FGBrRP0O19OVpkUoGlJEcAA++veXNn2TIBdQ1maGwAM5V1ZfwSqJtg081s35kD5+KgYb33vWPItks1w2jK8NJgLmCwYMoXEFlxEFMmhAl8pGzQc6kIzNN1Gapm/IFMgpUtaFj/XeaPpu9EFqFEPoW1kk0BfAL9AM0YBsLLUEswFVG+R3gHOgrL5+3JqqW1bvMjxzATYwg46Dpsumb04VyBFl4GfEvMtAWViFSdv0TZm00QfaLNrKFH0IJqsiwPcafRAwEV4Sh9ik3asOpAOJh+1DEXHzoYhQpfeqVy6r9oH0YYZ3ZR+NPtGHBlvpX7Yqf8w4Bvsr1IdsbOSviL7Iv7H9GtPXgEmwgfbxEIs0fQfjuRLVXcMzrmVwn/o3egNsBKzRHoDIIK/WsPJD+429PhKTqUp8sAHUKzzSSUHaJTC1AcIYXQYISSeDnkQaGbDwvc20/ZQx2YDyDtfzlSYMfkCodGG2trJ6jYxjRbJ85FKKGfhjH3keQtSIV4MoIg+dRTpyaaJcwLdZPRhty5prQXTK2ERZw7hMTwMpHZnJY7pdypoHLDtglOhBBEH/ICc1fePmUx79suk71/JN3yju1NHEmzyA3qQdJmuBYIpwOQzDaIsUNJBUwbmXjjRr3jYZU9Y86qdhyMIL7SPq+9r01raM9oGYbAqe4ekLsA+M/4g+KDEM+FHbaOShiIH0iT5inNvHCKBP7ANoWjpK4tMniD5C9LHxU0O/oChRH7HsQ6vMb/tQBNG0vmemv7GPnM/RVzgsHcUWlPRQBPir+ol5KOKq6RvxN6DpG/3UFFKcnYBvQvylNADjat/VfD3BLnELRt13Iajeum/H5uue/JM+EM/kXxQIvbF80VeBkDR957o6HTwcE3Njl8QQ/Hijy2NRkrPIIPGXLIHOh8jAbdoxHv/Wr5C6muvLJ/0UqDR1Kb/TdVc2d8fdZeGtx31e96+3todPXX5nXBorvte4n6rXW/vO99+n+sLDkLG59xzBL2NuPvO78Xb35u3fzi++rntp8pfj/cNA+ILjOUq6VUiQMmXyMWy5O0u9sypOp03fR2aD1RkMTt1RQzcgzLawamSaWlfJf5Xeo0qMmJFykyfTNCDK1qZqKtFileS0iXLmd22ipGqeCoZEUDrwTd9rHizlYvpJeRZVBTB56u+XkVI4VelAH1DVw+Og/n4ZrEYF8DmF36Kp1KZHKwd9gg3CIVYbtck4VobFLJ3aB2ZgZ/Yxgvk9sw+olm3tY9nwGKHkcVkesvKzpu+sOI3wTdWsI73V+R1ivyQsqG5wtYf0sexjMDS6U4cyF2DD24fBn2Dj0j6UjZ19NPs9sQ/0V0Sf+AMqN3qVFxs3/NUERrb+qrCoD0VY+sxOuWv6Xr/FIyLCUN5THW38pAih8eGGwRrc2sBrpL0lizih7B/oelAGxx+7DYJ6ZQ2qyIDNcPWqr6G61EJQyjlAznPGmIK/ORlvB67wWC6b6+WoOOMHwUFMPTZ//2znBcdzqHMNNSd7KQDoUlwdNWA5nh1Cq7Oi0I+Jl9xpo0YaVzk5ihby2geiKSASWuybc7WkKTJIBz2FliWDABnkQHG8sEg1VTv6lDWlr2cX3DQqT98hv7BhEp+qD9mAaWNAEeVTjjt9rHlgQ0J+Nzpi/dIXcg6sNjz+CpIBj1z1eKCPcMjYuH4oYjJI1D5S9q7pG+xjy5xv+tb9nI+/hD7cWIcECIuG3Fgv9NHs15Jc/kD1gcLa2Qd9ntgH6KrjD0QQaB9xbh9xYR9kv30Y6+iZpu+dP3D2q0IQf9Uh3vldgbNgo+kD/YHqg3QURZ/qA68N/jKYngixjc00sG385JWdW+xiANPxF7jsRHubNdFGHyWW8om4g7QHG6Kv4e1y4Ef+eDpdwkDMcbutxqUMKKlbM8oaoNaUQQt+lwya83q/6wWN4HKJ8NMYlnMIFmBlpWsc9hPNEiA48AGrq29Co982VddNookzilHRcazMaOT35mQxMkYRyIZJDYkD58O0BRgBsHOmOijQRHujrAESiqKpIl2uNFXwxNkDbJ6YpSFNEghRlSUK7K2pGtM0pCkd8woaetbcmowlq6cETpI4lzX3pmoRoGb1ptKJDY7ABtsEswvzsX1wE2V0fk3W7LL6CNHHsg/UBwpLdnJuqi5ZYMN9VmKb/RpsdBHAfFH+QCo5+QvARK96pQV0+0BTcH5KsIH2EcHY4CqGJF+KjRQpB6aIDa2KdH47Nij7D8aGbfqm3s1o2MhlJ/B7jGz461kQVT1cYNXsA2UgPqrmXeM2/JJMWX4TfqvJSK+udCGsxu3UG4gv/Xfe04qjCaxyfwP9jlrPm+AA8rB3CYNGfJKxy2BNSn4DGUHcE9YkSBbV4AMBSQvgTzGueOZoMCdksZANnsuAHMs7Xi945YBcEhnnBpd/5iONEGMoM5ksXLDwWqKaKBNzFBtpU3UEecdYDnDCfJvGNQ2wMErBhUUE1QsqUf/xR6aPI/ukD7Iw/P4wECAB9xajh1oKn3L0DcWt6ZsmZ0GnaHNz78uS8yQ9aKADT7+QgYAeZjckmBiBRw6avld+ChmZ0EdeJSMNccYYdCN9QAmSpbs32MfI7yB7DB5FR333iQ19NZxFNdv39rThKPvAJ/dKXRpcgDwwik9HbkSw1mq2wjrqma/oQ2wF6WrItX5qkQtB8JV9pM670jPgyNh2uGHCI9gK6iU3/Hr6D9sGOr+woVv7AH5ngxDLHvUBOip9lB9NfUDlw9tvESE5ExAI1QfnCxHjBs+++RrvGUBA1kcBR4cz2QI1fZPsRb8QiBHogC5+SKXGaQJ1Swa4h1Eg3mU+h9jWMU6DUEwKW3O92zvJzvr+RpuEiOUhD5GzwUF+aVWcL3+9sBFcrruE340K33rc53X/emsQfury4667urwz7pm5xo2fb8a9NWsfNt9byv6Z+d5y2bs6mlFPOr3FfIa6p9gfd+/Ny3HT3ptvuoa/Nz0tb8b7/XvTjpsvnu/uNU9wMD5ww3hx0IRlxCp3Y3WGm8TWmQn3ENWPs3+mVS3qOCijXTA+LCdjua5KqXWTj+L6qwUeaoKyLs0XzXNRQjcgC4B1qWwKddhBjABdoVWhCHo9QATTd9yk/gXR0Tqey3NwWNc2tc4qvTd+J+hjRhuV/IqDLJCLPjKrgEfZQfa7N/ZmzmF0TsU3kT3RZ7ABZ12tTE0vNASdQxHC24foqNlHgH1sHorgfr8ilemr5C0G0jVO6Bv5I3woIvWR9hukh7nBhtM5V5m44Z7t9759VOa/s4+w2NjZBzUPX9kH+iuVAdI367PZhwjmyl9hlYn5Nf4q1TA3/AJ9oAPyV6Cj0qX32WOsO6YJGu3D+QPVOfAbYG+W5mXTWdmUQANF6nDvcAXj1hpDbJWboE1ghT6nFBwh9NFRnPFDeAT9aLQ2drTsO/U2We3rB1PWnXFEuoJnOuI/9gyQeeJvIl4CaDEykNOlZERlADjo/7rAwgEcTaLC3vF6wT/Yu4QEjK97WVjlsiSXf9UIRcBRcsByN/zZHAdhE+WQoAI2gZMmSqJv1mfy6+ib/NmPGvZN39jYtmbtTdWDPqEqypuABFEYdNVGt9HH2jCH0QcgEoGqFWbxF7BGaYn6XoKDBd9w73RUV9IHsucXqEXKvGQfVgaIDRzX+DXY2JyElH1Y+hBr+n6ojknaxGg+o4/JtFh9YCCk+gBdWfvAcnypl+xjyb78gaMFdc46Yn9Q43pTdcdG2gert22oY+kIPnsfjerc+6uaD3S1wUZicgQJRl8+icnmqb8i+xV9qP1OsY/0j7yutQ/QauFF8Ef2u5dBRDR+w82HgazB0DyTwcKB+iE99kW/q9gYSWlgm0Dzf80Bzma/Dgi7t3qvccj7Tgbr16cPx7SAjmXg18Ukcb/GqQyczbR9dW2iLIPh7LzFApIFvdP1skpTy5pLwcgkNlGu1IObqnN35+AnSmGoEH74CEzdDGwN6JRRIH0BIBLnCtFbRd9FQy07gD4F4DyhT8/IozI3CkKLFmqihEi7N9yzM6n5NEtbm7tmkZGfmemALAbQ1bK+VlVig8usGSob/VFpoM9crVBCOto/Kk1N3zbb5EeHtbKhVQxu+h5JGMu+Gp1JBitonEAfBpfAnMPGiC4DrC6x7YXMV/bLvUtHlguyd/9Wl6jX3QJHun+VwL7pe8leG4BnsoJN31rZ4Pmc7NH5a9P3ZH3kuo4+3mBaUBtsH/hHajxW+uChiKQPk1IFPtgl2kfJCvdJYx84MIMfCGpBBmofa6wmLZg01KpiH7oGNZGXHLVpvkxmg0lyElHMi51T8OGwIWu4hudZA8FWGC8okiSFglojU1bvxo7C+0kxwpE87RvLyRbyb0HjKNDZ2ZsEZaFyRtUMkUELiGWfCcbBR1wvqzQFZ83pKOcUIKJD4MxNA4n113LP3ETZA2jYDkzTNzVR5nybaBloQv8Ii+WtLBYFOCKN+qPQzk2jiz44ioJ1p6MrDP6KcdIHbiTlyEX2URsmyYFThf5IKziqEBJ0M5Pt4vFtHS2osUbXg236VvxN3pjSuQIe1vd9UzXoY07PbwzwfwP4NWLDYyxr/KbpGwJK1LlG582Jheij2YqkFuveRPq4yrdtMra2QnAp+wBszA02uj/oTpbsI+nz2NCYBoAA9MEj6bmXnTV9s85V6S4btvaBmERicfMJ0Ufa3tz4A8YG6kDtQ22lYYN0PkmAFZIyNqgCYu2XsYE8oj4qYJuEcWSNbFqDTPVhoHICxUTeIgL0FqS3Cet2fpNHMdGHCzH+xUSw/JbraqpujeXDyGAYGZjgg4C3aa5v++4UGUR0f+D8M4hZgyRnM7ifRpMzyIDsHD9ljQ+4XlZp+pgA7zv3emvd39XPpx7f/rqryzvjnpnrji7vjvuper2l7J8Z99Y8vKEu522dz1v3Xi2SRotGWVq9wN/OG/Pt1rged0sCt9Z79l6vEu3XnTfmc9c9zX0RyN+S/T0drXsf6cZe3ggOWc/ETJisdEW5UE6GMuyAkVSxwShbtSjHLYuGLHdTNnbW9L3oE4VlsqX0QUk4oioxeDaQ9K1JBhyF6PtlqhSZWW9w9nkIWk/Oikel76ApqxDRG+6zlEuVsZI9nSCADKiSIIrzTdUBJfDChh4HccP9oY+LBlviF+mjsm2BaNdUvWS1dNT4NdgIg0ltsF06moDJok+OVmKIzvtR3CJB36ospykJmKojiH0MsA/QwbhrH5jxndnHAH2c2Qfa6JV9ACabfeASE/i19A2yFfeWdW6q3vur3qDsNjvxV2S/7K/0XyEYBhtpH62wsLGPAXiJ7jsv7QO+n9oHVlA29pF2mfcWvyhToVlsWt+NZOUsa9Q9aTtAbDhbFX4db93/7R4S8HvUnPVvHaBNN782I7Bxu+E0eV+kdBm0frUxGS8JDfVXyw8Ye6N1yxjqtTWTZXD8lmQQiPvCwarKLb0+7rEMPuJ64XuallFH9CZjdB3gJEwTJZkqbDSqB7q2TdVV7syjhtg1UQbTR+c8rKQKkmYMZiMYgBgkxYbfZaz++OuxfPOG0UnGYis7cHrreAB4YSLVEZVoo0DLx0HwKSXwITddg607DipshKGPVJ70RSi/SEqXvacvYLNQJ0E/bdiw+jANtv14DgJo1YfoCPFX88GmBzR0v8F9EWofkfM8YR+xt48llgz6d/ZRwgL7jWYfSd/WHwjDs3RV9Ik+lj8YEWdN3xnUiKFbfUyDl4IICqYdK/ADMyf2AZ+EF1eZuWMf0WW/tY+4sI8l+7iwj8Agj/XbMRRMs9HRvuHZyVmI2dqWsdXY6FcCNYehvm50G5RxU9Y4kwH5DVVIfkzg8zGOdYj3KiGbM2A9lvOZDOJKBoSD2qubHRXpjyAp+fSxxUdcL3wjeD97bE2Ua/So8cfAFqBidAnDaj0BfsC6Z03fdF5KTd/B9GEyUh9EC2anpS8BB1j9qnBxJadoWQ68JMXRPKWtkJ0in0nL2mCixvVHpUGoGVwuuoBfyHSmkgIbZll20aLN7dr0zRmFqWJgw+ToeuCsHioHoAdsqqamVqIv0girt0orBzNlQVkV6ICe2tFMFelbAZqtbBQ2quJSf0o9gH3gnp4OUHYsnq+crFb5VjNysw8kYq0w6BbBAPsxWrMq2AI6fOI3RB/gyDHY6Vlu2YcmHr2KBvSF+CtM8eeE+XzDvasIWPtIbESofSwayT7C2EfyCfZh/NT6rv7gVtP3wA16SZqbvrnyx4Ep+SvEH/mrIP2u34mo2GaidIWJTvtxYjw6rgx2A3BasgqxBRFVOEGDp5RFCJOqc5RBMBtTxmGgjUkQyQBtP5wu+x6bMgD75XW5YDaJUBRqrbVrricZCA4msMF2xDLgoJGU+a7XyxvBz5q+EWCYUWBUHVAsCsAfKXX5bhDQBGdy7PKUNY+AzNIAdtE3gEYJWtOATeaGTjQd4FRlYlmdnfYDqOUciopR+CPmo/gl2WPWUpF70YfReZSgk6Za4LSpmvQQZISV3eCRHzZVSyYNsndNhcg8Hjt5+iZhgwNT0YfSlzQVJlAfSJdmzaSPWd9JH1GB+0rnXNN3Ak82M9xAcj7BBvifIPROwR/I/lbTt+6Esz7kFhZ7E5PooMsfrKhhbOhbNK357jV9b+1jBcHY9C3YaAGMpPoYnpA+AIvdT4F9TL75oK+wuGxCA9ia78I+AEXU9K32gZZ+1vQ9g75vm75BR1t/tWSPutlgnGkOou+64dn4ocFr8D10/YfEUfayBm0RCDxUtgKBbEZ9Nu5/o+stpwUZND/OwUfzxUbOtO8SySIDZ28NfloUKeFqc/0CZwVCtQcwroANYg1tFGXPWHvv623eCP5T8Zqvn4Kuu0r8QGV/x153dXln3DNz3dHl3XHf6ddb6uitx721Lj9I5/dd2rx1bz7zc3fdkMG8c3eTuLzmHteSnp3v5ZvHPck/ucYLZfEIZuYL55svFsO9n404x8HHOdVXvRHcNX3TucKqzpw1Uc7IzMY12dUnZF55FLLWkKMfaOyta0I0XjrBwHUQb2GPg2gklWghKwrT1LoaewMydZJVbHBS1TJuqo7A0ntrMs5MiGUwQC+D2NAmT3hElBVHN8+bqjdN3xF0FLJTOWZep03fVNfFMoRpasWjBpqvKhNOD4j7RRM3VRt9CDYIdHftAzLwU/vAquq2qfq66TsEk82kQfaJZ7Jf9+MyJE+f8DtBH2wMbKwzSAfcXFo2U/Y75cdQBVv2AZ+kj2a/J/Yx6ibqoDdVXz8UcWofUBm5tI9i5Nw+lj6umr4Bzs0+luzRRziMO5qBvnqPWVvE+yEnK4dd8p3dFpbcnPzsQ03NZjY+u9l0fRZL3o832edi9X0AwyjnNU6xQQ8d5BoYSK7ma1xPbJpkwI3luW6TwWwyWLyhDKbby6iF42MCp+eP58jho9XgxsVCrxK8c7KRQkcFR0TwxjoIPLapetfUOoAuqakvUpM+mBvYCHSoixYucT8mzJLwcrxjEFCRPddE2bOBIyeCPgvb9L16V0476bHJE/k19EFvDdwMvclvHVd+4SgEAt4tfeDTT5taV6CBtDh9LIwhLXgc1EhhWhz2903VQWtY+1DQiX2sUb4JmnsgDlDwp9hH0pfzbeyD6BrnJr2w2KDmm751IG0MSx/WHxh9aAUH+OT5XGOvfyii2Qd9nthH3LQPsF/Cn7OPuLAPr/JuH8eAoQOdv0p/4OgT1toiG32I7BvGdcNEHQF9Z03fJGc5hsI1QtZoDfdmDfL3Asrh7LfZzEbnMax7PpNBXMpgyQH6OaNMhdockv7NQznqYCb6HJiIaNkdAU5Yd3pc2en2Muh79yaz/cLX85WmGYXGNMLjD+rcz5q+IQkn1tvAQ5AJZAQRPxVTTdpTaAoIwMTOxUHjhlW1LFEcoRF7EbCSMzKYWBsqSKo7HQzwgcLe9L36U4BmdIZEn+gjJuNvkFhI9KQ4SgcqQ0k+V+UlM+gyFGxqpdQSGNaEguaLIH5zc23ZJuhjZXjwNB1nlr2yoTpA3VDTt1Q21CFwtqyVjYVhCPyMmPMzhD4SVimMm6oH0cxN1dz0rVUvTF4xS+f5ONApJziEvgqYelP1ZLyAneAmUsSQelP2ah81X68mVLDQlZ4iQPsA2RtNghMx9pE2vGv6BvvAKkJuEkFKNyp/rAB8Ev54IPAr9kGB7lnTNzKOvCclzT6UXyXFN1+bpm+VM+E+hA9Yw8kKAiZ6ICAxN2wAxsYAOjJrICZTBibpy0AypwOctkB3D4THLZHBMDIYEKgD30/LAG2m7aeMSY97gSQkKDHUdwbL4wRr73m9rNJ0CC4lLYFO+Y8yDGr6hp80tieCEhQcaz4up2oTW3tEt4W17JSryXgCfabpm56UCPjumqrrXm2AA0aV+JwQbjd9ZyaAUWiUoJfMcq0B/LKIQNxCn+gj0Jn5zM02faMOkGm0CQoaSqqoj6KxZ82FF8Zia/qWrGps9FAQn0AfVpX4SJIzZFsWKfoC6POw7/QlwOBHaB8g+2qCRvoC6EOaGAgz+p+xqVqrSivgKBxG6Qb5DdEH6IEf1pAvYitb+5h8BFb0qX2w0ok+Yx8KjUE0GfsAorkBWJqbYcOUXZ6+44naBPzXT+ShCMBGChD9FejcNX0zTSf2sWYfEOgs3kaQrtNNJdSw+Vr8d7qL0eWcfHa9rd9NGgayF30gn4TnMyNs1Y6ib6IMRKZevdyYP+wa8H0arAFQUVSafMVUXz2qjx6C0HqzOYB8KC29uT6O37rmeocDkoHBgV8XsdZz3Pe63veN4G/N5V06PiYg/c6+7uryLXWucchrx31ez11vqfO31uWMsE2tH3JNc+eVtM3T/zz5w7w17v58cg0z0G1om3vt7hew21fLfty9x+vM27+dftwLye4/G00GVsy3+Ty7d40D/9sbOGgVh4+x95c/PYe1uRlyFMJB4op6tTTb58OBq0Kxa6qG4xEDisrEu8y5ymmaKAPKk0jXtokyYoyZ3++9ObcjattASEcNVc150Abp51nTdwSemAh9gw0c0xQg2jdV32hqnQETGwgNhJP0v4EMkt9ScNcHNOyuDPzem6WhpCCZ7r7JOFIP7s3Sevx1yz6Om/cfijhp+s6Kk2umjSBn7UgmfhFim4ciUJl5VNiPv7SpOsJsbJQmL5JP7AP8QW4SBKwL+xAzJ+iifTT7PbEP9FdgH6H2kXA29hHKRvcHdJzCIO/2gfxO76+ymqc3GyTVPpDfbr/XD65s/CQJIToffhjbwvC+aSu/KJpUH3wPMNls0PnYUfajfnwjg/GEDNSXnMtgkpznFF0vDMlRcUwWTVYEZ2+uH3AsN2SN8nUz5mQZ2KbvyURU2877Xi97TxMZJgidPmWjRn5XOTnnWwMj0lMOcYDBAD1/cy4tlheWbYmWpA+eyMuB4niLE9tEWfQpaygE5BfoO+bpb1kP5hc2TOKT+IUmaDOM8TeVNdFHJLjxOMjqYwB9qg/R0cRPwUbdKxkwgZJtDHFEgo3TJmMEBSzhmqrz6TvbVE0/bsyRfYiYbzV9y0B98R1i47Tpm6P5c33MKXipQAhl746vF1Wnb1rOT8WLsY9A+4i9fYCuROmBi+BDETqMdfTEQxFbfyA6av5A6Sv34/0V2lsF5KC4ro/0Byf6gOCs6QMvhz+H8R3NoTJw92DdaXCF8Asd9mTTt/i6M30whroNcosGYGjnx1nQTfa95+355vozGVBSFwHYERlgPBkclC3gzDjBlazhadmtiwnepLnf+3pZpQkceCX/0tQabPTbpuq6CdUlFOrKmiGoiAnzAaBAqCBvo49R9GVlA+dT+mqD5jPo2NDXWSNiJtI02neeD5u+taka6UOa4Dsm/7B8NZaHpCgsOW6qXkHDyqlAHyuT0c19rajJEqmtZ829qXrRxBsCV70WDrkBvVdKzIXYGIxFbmgvvPSmasmW4rrpO+nL+YiYtpNTFSNYBvUWX7mHOkjsMDbIVgbQ0qoEYh8YMLWqV6KNZMX1DzVSsY+cD22FsTEjms4x+VL7cIEpDiP8rT8u4qgSsUSAvsHx+4qm7wn8Hj9o9mGy8AhjH+CUERvNPkQHNe+htx2/JFOW34TfuredMw5UCLqu6I2wIQFTVr0qmS8bE/2WsW5McAB5IoPBMljz+kBygwMWeNl8MG/oSxC7/ESwNteve4Vxh+dmDE0sXs6Ba4DfdTiI/L6RQYr5urn+I64XVpqQ8bqZ+68N2LWpOgLBuYBHTd8YUY4BMh30SVHKQALZ9l3TN2bNQwcmfeUc6LFOzCiIvmQH6BPZ5VIlA3qT9lj8mabvXSaQ9Ik+utoe884QPWigc9CyNs/ACB/4hQhxbOhaMph6C5znOISKWR9uvFwWmdGNUBxHZnNAyc7Qkj505NJUnXpgJ0HMjQhkrtNXGxMVBBq/UXYCgGoPRYDOfVO1SVDAVjSAyfWBLqIv6Ro5Dhmp+VzDfW2AAAO2DxlA79PayB5fJXDZ9D2Vvj6seKyAtzv38geP986YJmOtniwdoQ4ElIsmHgayX35qCl6aswF9gJ9y2MCfYnxIF9kb8j7gDsq03oq1exBh/zBGNxC1o7bHQ0KrT7Q2/Uow35yT6GPRNWGcJlBlCoP4xvVak/ua2MlcmuvXOA1C1Y9eN9fDUkPkTLSADIA+bvCeMU5w8Bimvl3wp7YA6qcnKQGcmGx+xPXCnqYbId4HRYHf0dddlNwZ98xcd3R5d9zn9dz11jofN376Sp2/tTP7sPluDZz76uULF749350F5m02XrzGvDXqyevmm6pn22+nx669d2+Nl8rgHg1n9+bluGl/OzfzvWwNf+9aBm+zHewk+3GbzcvfCH4wlIlwVJVpnfJgORkHVlNX3dSjhvW9yquTy7o0XzRPoycIa93LJsqkj3NwaryLyIrIaRPlQ0TAL9JXa2kvim8aHSlg6tcgfrHJE6oHRN9Q1oJrZCwDanDM6sb66aEP23DvdBSMl6hskEq409CCMlj6oKZq8/6lpY8mq6Hspo560/euqbpjg3UeQh9XD6ri1Ju+W+Nn6mjX9B2JxVh6UWzsHooAbGjDPduvsY8BMkiagvTQ37Ts7PfCPqBqYN8YvcHGmX1oVbzoE39F9tsxicdkfFwL9oH8AjY6fWTmUDUFfai/Amw0TE7Rh2Cj7ENsob5IZaS/48m+ud7ZtMgA1yc5pzA2flexAT5E3w2Hpwoo6Clr8KmC18dLZLBull+TCHbJAuOWNck0uqQj/mMvmyIDaKom/zxpEeizVpuZoPOik/bQeLytm48jZ/CbvgewURM+fguy7lsP4QBbQh60YdvJxwROTx/Pwb4Q5VgZZDy2N1HiWeZABxjldFyD7a6JcsLCSd/kz37UAO/YyYEjysBH0R6jbXD+KCR6kCSGm6ckEwAdbIR0/DBZBmz0NWfSp/pA3ZEMAuZbvypabJNxfjod1ZWOHmSvJVXGhhy3CGByo4RxtIFssDHUCBMb6LVrU6mScBQ2htIn+gBsdH5dg20IfUYfchxU/Se7hnuhT6KjhhegnvGiR3FgA6YBHcelP7hjH7G3j6SPHorw2GCdn9hHku+bvpk+fSii9164pxKtv0IdbfxV4mXC31AfoCVrH3h8Exf2IdhwMnjMzPaBa5y+ORwwdN14HBvce9tCv5G+U3Hg/EHbWG80fTt/5XzihQzihgx6QNedhPMl80TOKw57pumbMClYjImBUPliWqPZFu77M+f2D0DsZdCC0OQtXlOSfdX1dKVp5bKKtdZgFuIcQCFqwPTStyUYzJrHgO8iaLyFOpcNkx6Vpvk6I5jJF31RDpXoK1ogcOfIOUajhRxqgl8yFGqqLoYz4FjZDTh6SubQQY+SgaZ4nNVHVruqsqFZ85rPg9ZnzSWLXZWPmr5ttglZPcqA6CvWiDz0G2DAWH1c61KVbwJ9GGoQfYUNzOrXurQp0nzB/GZ1oIIBfIR3rYsN973yIjyLySQ8gUBsQOfKBtgHMKJVL3r5aBQmySYG20rNx/bRe1F60zfpA5Kgok/sQwLTAdhwFYEkdBSfNQz0YZuqZxCeOQYIKwLaJ419rO8aWYl9oKwo2FL7WG6AzLccFvae9aZvDBaqIkY0px8STIJPpKxOMgqt5KRdKjZAHxREtaDH2JsCQUmh4HKQT6x7FKoaO0K9iajBGFLOZg0OcKTqivSdyIDAhrLP790+EAe4hsMBynnX9K2VPMIB4IWwRvbWcdCi/Xe6Xl5pmhsdPP5a303TN2bNaVyTN++ab6SXR/+IxEyhaRB98kTZ8hYj4DsqFbOqw5GvZZO+Wpx8tgopVy1Aj4mOfDnl9SMADGZJgxlGUHKTp+gBZFDTcNb8kFtlUMuA8QnFdCGUuY0tZtG3L0dUamNs7JuqQR/QhFr0ITbquzP+XBYDXghuKtARbKiTQODlfOYJoRB9NFuR1GLdS7mJPsQ+UA/eVoBv2Cgxlp8bbOybqntlg/iVrJ6avmfwd7mJrxLgRKAESE3fB/B3TdWL+mqqfqLp29kHrDtX03fMLnvUB9mv2Aesjw+/NWxsZEDAEmzghkob/5V9qD5SjmB7kukzzdxWoTjAJQgIUolYekNdLlnUuqAPwlo5YRL9YPrIWQN92vBc4ybLdIgMzBq+6RuwADKY4KwryIuGY6CqP3SQ+h281NQvaNM10iX/r22uH1uDEwId1kS/igO1qfe8vlwj+HfKNd9w3DNz3RHx3XGf13PXW+v8LXX5Sp3fZe3D5msTuhXm7YXfskl73l33po7mbV3OW/derYtGy2z3thvW3abqG2u4cfPOvdN55s1xek86BIeR8xuscTku3sLWXjbDF2muv4uDDQeD/ut9rxcez61sUO7Lccvj6wB0Yza23ujJ79So+aDcqBl7a7DFClBk1qsNxVXSr4gby6JaXahh/ELDvJQ1KOs2+lYWAMdBlTdUBlnn+liF6g3FdFRYM+jCvakadEDViiwN46sFJvx0pixIBJmJYdYxQtTGJVVIT3ZN1dUgz03fCxvDYGMlUUxfYaMSmwG64kZSPCbLKhfRJ/wmCVP4dZsiH38pNrRvzNqHOOjdQxE7+6gKwYV9oI2e2Acef13ah2Cj0wfHpQYbYXTk+WUdwWukFByMSbLfzQMBcFTD2ynYRyssdH3oAzN4vHVqH6AD/8CMsQ+soGzso3xOdBvM+YRmOibRxnyHg74G+TrUG8pqYUNsFWmJnX6bg+4Ddw+BIO4L4zSbsSPw42ILSegwch5GBmAzKYOh/ortzO0B+UkVoBn4RnBs/kd5cHN9+Y9VlcN9fw6RQRxN3w1rZRnUdkBYm0dVV6pNQ3H3/tfzx3PqoAET+6bqAwhrk1pOxzZRghJhg1uL9KOQKutvm74pSAoaWPMtIwSnLcpu5fZe5UxHmvQNcWJawg0imo6DcJPl+YQ+0gH/B5ZN07EtmQU+ASFN37M+O311uQZbesGbxcaazzV9Bzkde4a/wYZiEjcxTx/gT44KrT4G0Bc4H2x6QEO3ae41QfugNwrHtX1QELyxjzWqgn6kq8ve6QjtI+mb9bmnLyqgJPpmCMlgv8jvbLZQOnf0gT4oadroYwVbSCDwyc2+Yh94HBRBk+8eimC8GPuIm/axPu/YR1zYR2CQx/oNmQ+PEXM6PV4PIwNat+sN5Wd16WxV+bX6NRhyAwmTLFOmZQBNeO/Mb7AMUs4kX7ajfu+QQUT3B6Bf2ppIMLM+t7LnBFSP4mRLqcApaTixVYu1yF/X07ouEK9APchmZpv7Pa/nK01LWutjnDiOrF7UPXRAvukbhIo6h1u4LGb11VQdkQ4GaMlsEqNuUQI68Fq2AiGtbGB2inwmLbDBYOM7Z81LsActsAhtcJDpTCGFsrnBxPJ8Sh+8SmAgfZKpYsNkVzln9VEGgDiZOpCwAZvE7E3fnFlCIIRZFehAn1yiLA0y1qrguMpGyawCq4Vr5BOycNjTtaqU9hEwn1Q2yD4C6AMcqjGsYFrtA+masG57KIKcq9LHMqBHjNP2xD5ok8D5eGMlx7yglsFJr3ploEOJR61VfgAqArDJzY1gehWtcIQJHr8KBPSh9hGsB7SVqjKjzsE+cGBiI4C+xcnGPkxgirkZ2QfYaGXwmGwaDIHe2Idp5Q3X7ULAQFGxG4DTklWILYiozBrkKdEwEZMgg9S5BKuJIdhbsDJdONg8jAFAGLmeX2MAoK+bvmsNvxdPkjdj6DHGFQTUzhEHAZ9UnQ8wuNfIYIOD9FeCg4+4XldpimAu8VHQY6B7q/J103fQImgTaQrLFgLBBk4UM4AcICCnTSoi5iDnUMuWYyEikr5SYAZdZAym6Zsa+QYghZ/y6FWvtnzSxNlcfcdjQHrreICBaHagmQJ8x2OnloEifXCE6Cs5M2laOue3jhfvrembSQI6D35nfSd9BOuj+NTspbzYTJ377Ou0yRg3EnpUujYaPOppTd+ERUdfd55L9bPRN4E+bqrGiCO3JcHGXI5SsNGavimi5OAinyyc85gP9QF0EX0oVAguMvjtWLSJvgomRB8ie5fgpR7O7AO0hNio4KM/3aZN32Qf9et6UjbnM/aRiQLDpWhifcTK+EG+3IiLPqcCNva3Kg/8BGcdiLEhzdfLDRyogwC68g7AWkHCrpETmwgWj41aI30wxvueUyFv+TiwUXTQiIpmW0wTY1dkMOAxFAh0GX5aYTA2g9+hqdo116dHQpeNKk1aVpY4ohPWcaCN79RcH4yDlPOir21873+9+OWWX/S6G0TeGffMXHcUcXfc5/Xc9dY6f0tdfhGdf9lM6f7s0wyeYe+8oY78fPNk8MV8r9bllP96W/08pY/Le2M/392FxvU9LeBQhpb3xuU8dW/eGse1pH1y9Jo17opubn867d3ryytoWtlz9fI+P/Mpvu/xezX6plA3Opo6DVUD+hKr1ecjrpcHTRgpT8i8ZsWGK3vPZrIJlQ4qr2GFKjLchGSQouwVjWu5m0bCsUuVKCtixXJ8PuocGO0axYrD5fe3AH0pAzwOAlpWlC0ywKM4PPbSt45XeZwE085HuMEW9NEaHKWsnGdsLAOkqZIFOFpp9B13M13lMkRrhKSjEJyvY8NDsnCIx16Vr+BxUFVDKcdJ8cn7lwoGwUchJYO9sAbTp/gDGbiHInbGMEZc2wfR534M9gE66PRRMco3uuIS0/GL9OkRzNQfM3N6pIOwb/ZrggpK46EqALRs7SMG4y9u2EfzBxv7YEM/tw+i78I+jJ2QPyAfoc3XNS/RDBiq95i1RbwfkrP0LXbJd7oHhOJYt+N599AGD1OdR8e4ymDs9FbV2AZKtf0QXU4ertio5uvun1MGuZax6SYDDELPZDCbDBZvuO4UGeQaImcsCSYOJuLv8CkzGtb4zeYP/RLeBsj6Ha+X/YO9EVWWNE3ftql619S6hNrK3aUwMuBZSk2cULm7lNmaeI+J+X1EYAwBkSaztAAAgABJREFUQOboCNYCEaycaNkMGF82fWNpUTpTW9P3rM+FB0tfNuzSzfpcjm2d/0/HbxZfaYMjRoXhperTpm8INLSpNVQfMwo3O33gBiz6oAs2jt5UHbRGwwbu+GdNxildbTKe3XazsQnnM/StoOGq6RuNYX/rqabv2qiVX6FvKL9GH7pRO31AgtL0EYyNhj+yX8Sfs18+Nur2seYp++j4A/tYn3fsIy7s4xgwdKDaB/mDE/tYrLVF4PNMHyTbHjSQjoA+i1MnZ9rckZZg7A4JEGSN5u9ljU4LJNKKSafzMBgnFV358XsyUDkzeZW8WP+sGGo2rZjkRmvEpMPBVXP9WeN71y9EhRlc1jgNTB3W5tpFz+Tc06Mvfr2q0pTKzMAFmQMHubJYUBSF2tA9LHZOwkIHXrUsozjY3X1T9ZoPmihzFKYAwRtBcDDFyoSm0UD6MBJH+pgW3HhxWEXfKTVOUeQmzwf3IEN1Td+tN02WyO+rkrMAD9Wb9CeapsGOmnihpuoBdEklB4VA+CsdtCZjzVRhXGWjWtkoDHMTNMOg+OaYIwUkSrRN35RFLvxx03c0pwO0iK3UfLwJcHVA9AE0cX+KafrOoBvtVwUTqYPWgwWy58rL6PaBQoWKigammaF2TYLcRikssRGBWT/aMvsDbvquTaLbR983TCNzytQY1WT76E2yZ03fsRFCUtLsQ/ntMnXN19hfpBWmjZwXxtK2TmQFGyU+1auxqpWf05FZY/FNMoCgdsgaGtBVQjF4XSzHAKEpA9QliCpJGaOvMaLL4FiC97wug1M5n+CA5LwCdpAz+04aeIk1rBQz1iRwJqyxDBBuxRz+4X2ul1WaEgC7puqZmytu0O4RXULPIHuHTWqWnw82wsfAKcAZQF9JmZqqxwBfM2AUWJAqKXjToKx5xQKQNdd806E4NBOgpuoRQF+yA4JZN0la3FR9t+kb6Ur5lWhDVNWbqg99NGKlRrNkP0eJGXSUsRtggyuSCg7QRwYfQt/UwJSkGvBjcpTru4p81/RdwmJMzmKEZD8HHEXSfENo4u9FH8JgLpHCfBPogx8PtBXTVJ30QQBGWa7oA4UkQRViY5L9gj7UPsgfCH1mmDVVxKHcnAHfN03fQfPpDsff8UQIG+7VVtYOMRqI2FZqPtOMrNUTCNh2e8ccRWBrqobgCPHU3oYNyQj+tuRh5Awb21TbCpXVSFugadNPqX6tM2wDJ9A0V7BHCWOL9WAa5zfUZyro4Lv1JYdtwbppvxgoRsSYA2iRJRjkwntvrl86moAD13zd1oNxiAPEUMfaklhhaGE2ZWDXHbDGsXeirNXQ6Q/ve32ZRvC7fGwF8cJxn9dz1zN6ujPmLXX55jp/uXG9ziynubMpm71w8XmbyPm2893UkW/Sni+f7w6rT/zaBkqvmHKr3XnxQ8xOXjSfDMCBcm/KuCm/HS0QCNbNWbD2hPgm/O/jp8/I/gkkyJuqi39MmMPjdMvjMPfOSZzbITsZPInFU33Mjc45QKPfXOLAJLUXeOlYG2YNk6g1wc0PCQteFjRl+W3XVI3l5J69Vcru5Vxyq+wSq0JZnsTqjTYBJk0RY8z8ftlEGfBHJBkyDTprP2TBxyMT6JtAXwmwshkuzpw2fQcRTdKiptEj7b1s+kY+r5patWyP9GUmrgIEfUCpvrKYftRAR3J6wRK3moyTPqEaq5KgBz4OYprq+zNN37um6sqse9N3ACBOSCZ+C2K3m74ho0t9DNFHls9n51cTXahGkD4Omq4eimB/MIkmNfOtfajidvYB3y/tI+F8wz7o6FHpayDv9oH8zpv+avHp/BXZBzb6d/u1D0oQAMM3fTvcG73JMGOrXfZLbtbfE4Yk6AF/tdayDzY4HcH+gq/OSRlIEDWIpnMZWF+ylQEGOCcywGBrkUk/PXAwzT4Nx3LpN6bIYM5syE4H9OjSbljDjaqavmczyy6D0iUeUU4jgwcpKOf3D5tecDwHzAUchWAgofdsdMTMTvnEoGLSLNhEKY63fl0lwenoA1KWcdHNrgtsqo7gvgNq+l4bUu+cJRlmyboNM03fzFokeKNkwP/q/Yk+oOS/1Qf49KYP0lHJgAmU4usQRwTatA2YY2MIsIRrql4GeufN0socOWgR81s1fdfG2nXU+BzjimTYWE/0UdFU10d4bPRSveKlB7XeH+g7slagdsM+1qcZ1uxD4Uf2seaZ8Lmxj6Uj6w/EXy37MNionw6wXxxo9JH+4MRfQXB2qg/ZfGiepl/XmK9ruHsg32lwhfALHVZHRNdvufZN381foa52Mgh4sEExtLFVXWQ0HAjWNnLu9stB3F72z8sA13A4sLiSNc5w0NeVhIeCUHZnbArdHzgcpAySvJny1fz1Pa4XVJpW1YajeH5SawkLALWESo1jTh8DBLtrqoYfYBMllGMKCGu+5dThp0hE/RRoGu07z8c9H9dN38HfV4ANw3i+kPCcJcdN1WXUaIh5hj/AwO3j7JAsUWUDnmuCzKgcPAqQf0z0Lb5zvhVUHDMMIQsv3LyBLsIfGBI3VSNNkC0FNExKNlT8hsyHxAz5XuO46TuAvuBKLKYKgA0kuQIXsI/BQTfPBzRhwNSqXmAfFHSTJsVIxT5yvm4rZB8RpCMM9sk+cjnf9I320Zuq13xoHy5w5oZ7fd0Db4BsKzbRH4wNrRxwFMUJRT3EwE8is/2yKlUHah9bfkmmLL/UkQn2e0CiQqjfWr05bECw4Ju+BwUfxS/Y78Kp7uNO54Nl4DA04bdt39I94kwGJ8313j6m3GMZNCMkmwEZtLh5wF68X8MF07GzBYu1nX49Ds4COl73HtY4hH2f62WVpijnX03QECHCJ0Upo34P6jjmW8Jd8z1G8CcMTOGWc5hEXxAgSOcQ0+A+07JnODLw/FaUPHDn32XPECFQMWEICZMDLM6ai4F687WUdlEPC2wTF5GdcNYHfl8b62x0TVAlChDSb8g6MfhYv1Y9CDREEYsmdOTQVE16wMB5BDOE/G6avmdkU3XRt5wO6EGfNsz5SjfUVO2CC9Q60ge3SARLH0AX0RdEdLMVdLXUZAzfbTFBA6ekqWZ0TdUtkcGoDGSfNDX6lPfCYfrTlukX0Q97O/QBNoUb+QDZj/Luhj4IWpx9oF0gfdbZwMYFWKQG5fSj9VMMDOhakCTeJ8MdRTXEpsEBUbVNAnYCBAQkGNPYPT46NjjgVZcp9marHdHXPYQwyQYjwE3COF7DvlKCGEHMigxi0Mspm6tZfKdMfXM9LTWa9Vv/6NeFSl766iHoixi4huCgcOXuBT9gMIu+WdOpu0295C6wrawh1uC7w9oHXG/fCP4Rod9Ppeuupu+M0w3tC4y7D8x7I98a6P7NzS9f5XX0TX/nDXU+b+tSgpPNj27Pd5uFO/q4v+B8+g8yiMaNV87Xx92fT24M7/XbrRH3aBtm4OBAdH3YNe7cO+PaZD39LdfTxyEuY7pL09QBHWsqgyv0jVt/nP4Hm6CuPn3l5vHTYeY7X6OPw8oN3uPfjq0e1lezxl0ZnGBt6O/kj+M2DkZ8VOD0wuO5oPIfNnu/qIky5wuYL0rZWhe/aqJcZVhpesxqBSV+w/iaioC1F4Xf3yLNgnAUgvJCmrBI1o9CpKmV0rYSapX04bglKrvQ46AOPKOPg/RarTdVr+MgUjD9GPRh3rHj3i+zby7FJSr75aZvPVq5aPqOoKMQgilkRAnZ5HcDXsDGvuk7EotpHzRfFH1CKtPXm6ojsLrK2KjjQ30oQuxjANSi2++4sg/4fmofgo0u0uumb2cfA8FE1Tw9/hriD1b1bRq4XPirA4uX/mpVbML4q4n+AN8PJf5qij5wM0MdIb8Of2kzxqaNz1YzJ3sHvKfeHDbAh9ADEOAP1g+b/Jp/OdHHC2Swbp7JQK+ONdDlZBnMGdl8nevOo+ys/hnxtnzOLGKwqZpkMKOvu6o5cvrAb/peTdVscL35Gj5JztHkvIih/TzFXLZCTd/gE/F1Be74AdeITta7Xs8fz4GgscGWyo1Z/2MhwL5Fn/2oAZuq10D0WGszeMya/QQ536DPXJucLN4MoQ8AHdz0vcZTs+BJUyv1n8R2WDlPREHKA+QyZENS2UNQqzKQiXPdCijxryj76DJYI6Uj1jacLlnBIkOMMC9sXkn6YIPL+Rx9jMlkauC6J03fI4Q+ow/pC9s2W06mZftQxAzBC2u804I65xfGcRBf4zLAurKPiGa/rjrAD0V4bLDOkT7hN0U5zswodd3gl/QBv+u49AQbpCOBS9PHhL/t9AGBUNOH2GXDn8HGzj7qvU/R1rh+y7V7UELWMLJXv6u6RDtK36k4cP6g+WfnXzoQmr/a2CAFSWd628ggRAbzjgxGJYfnzde7dR2GnpDBYW8zGFcOB2pwdu/eYc3geQ2lxCzWd+NzdnuUPEmbvsH4jZ8alaZHGHywsxyCOK+MPlrcRDaAPRURKvyJA3Ntenw2CqC4wVGzG2UyqQNDHyodjHoEAGXRUo2z9E4E2MSwwtCKHfi51qDN3QMr56MKgmbNaz4PJ83SuBDVm75XsEpN31jFGEVL0VfCHURfLsPJPAWPZcBFX62rTd9M31q3JI3BaDo0WLf4BR3g3CQsxgY2s651uam6Kgy7N80jNnoM1ZuMeT6YULP/4Ky+NgmxD8Ki6ARkj9WJs6bvB3naSIr0iX1IYIo5iKsIML9IX20clcj0hyIoy5X4GkVA9gEgaVW+xW81ZZIA2T6g12hOGHVhH6gWSECvmr4z/ZTNff22/jUAXQTlwkDlCkONadgYvEa95Vo2fKtfXBdMRjCJ+MOKHsqZZEB2BHrb8Y5yNk3V3PRda4zg4Kglfc3Nj77XnckA5QxraFLAgdWdpm+2BU3+CWvJ5/T2Aes7HITKYBgZjDBYK/mth7Le+3pxI/gSEX2jiOjxkVsZxBa9kfX4DgOraXTNxxFuHVXU95J3OZb02Up+ow+PKrBRrzLFBOpkgOKE5Jwgw9okL5EAHERNjsms+aClNmrRAWVugzNFuDBrXkaIoW/JTSp/4JgfwyC7JQdd30v2A3hE3oFdDHghuKlAZ8131fTNOGybBWhUscGVkiXU0hEGpqkPCkxYD63pWwJ2zRgzcBI8VHYI/Kp9JF0Tp88s0zWgNz85+82yNzg6UtljEL90VJ6NJsyAI+MXbvpGusofAIFkJ5DQzIgx+Eim8wtGL34KoZhDIA5y2Kj5MPplBbN9gD8w2NjZbNNHbnqARcn0a0MSDF1WVPBTIvso/0Fwnscb6cVW697BJYKc9DtgjWHp4oZnHLds8JAj0FWBQXqn0puTtbk3ga5K0gQnxxq17vKZyGf0dTOyQqHqhlXjSAbQuI3N9RxM4SckL7dxUKCcF1hba9S9udG5OLtiqOPgwBAlFFOC7g+4nq80QVDyfpdLhV7x8zvjxuaH26d/zFzOGb103Gtl8KbXR9Eyb9wb+6F3p3RjxtUPx2bc3fnuknxfBtv5Xqiuubsz5N5uYQ1Qbo7TRNiPmzLf8OPn9q9t3KU+VoTb5ntSH27qYac4FUoFShIUbwKE86ZbJwS0rRqcOZTSAuMgNzaszA2tJrDliFqqFRgoYRItC1PydraGAYzz/bQu/2nHR+d3mj9uZAB/ms+gasw+zSUORHZIrcQCAgvR+bia0jsEnVT4+YjA6cXvaaqsJxgorYmSwZuvAqjatpTzaiCW2ZcRa7kO/1FglTMsUYrTaixWBai8OoG+I8reNNjyfIv2okVHJb8ZoksmDKVKLg3LqwUyCj/0sWmwZR0NAuzKHCasS/RhdQOzacxYwOnZJs+VOGxkj8Rg0/fCBvYsVPbem76LPtT5QTvxy9hwx18oq64jow98PUXWATb2QY6l7APLzt4+vOx39oHHX5f2gfxu7IP6RKaxD6SP3j3UManHXzis+QPEhBCtDcD+XyEA+9hgYyC/U/RhsEH+YCAmejMyPnSwKqi2+XprHxt+o3T93FuucRGz2e3sHPQWsEbDBuGv21vKD/UbBgioj6wUsU+kxnJ58KfbEfoNloHFfbMtxu6VDMo/e3tbMphGztjhvX3wouF+4WoCnmCNKDlr8zUefykOHNZWADZVBuKztbH8QQvLID+NDIbIgOQB1bz3vF54PKdODEHBmUUFNSijTdM3Olky+noPEgddEvQcC2es0JwDK3AgfVlS7QHRrslYc0za9EBaPMrLII06Io1Vn4CIKJlzU7XIIGAaGodBDdAlDfe7pu+ar+TS+V2bDq+Ln0XfJIfF9IHsKYDe6IOCUNFHAH3gn5s+Ini+xEvJHt9/spP97qEISgpCNtGtfUTZR8TWPpK+WZ97+iKEtW4fAfaxdAUybw+BzCAdtSRo6aPZb8cGJx4n+libxTD6iKbgdiSxqEdsWPsw2LD2sT6v7MNgQ2UQAfahNijzpUxJv2JHqCNaRNd964Znw5vBkAcCJITBMmVaduu+XdN3zc3YLfs1+FPWSJWwz6jNxD0ZjBfIIDY46K8egeRU/MtiKH8y9zhQOTsc7LCWa4hvwvd+fcT1qkoTCQHjkVEj0VGmckId6soyjnEJqMff6rf8qDQCSYoiFVRjUAOZytqosHlvKYSz5ihQZzC16KpPzHSmkEIb5mBieT6IoBe/UM0o+opvECrrI9hYk9/UC2wDaKzJLwJfMq0Ywi9W1iDLwYwiaZKMYa4MigOcqvxN+mTPc8gFN9mWbXKxiKteZmONVCZtcKgHepOxfZUA2EdE+YaAe0pfzif2IVHeSLmxfeij3Gtd91BEwPe1LtpKzxhrXXqTMdEXKbMh9gsirU/gHXGo5Ql6jQMIlQKm9qoD0AfarxZ3RP1kH1EywA26MkDQh9hHADYwMF7fMV7CpCFlL5vOGBisikwJ46bpe8lKAmLFPRLTG57xp73hmbHBcYFrvi75zSBw1AoNkwFrYACbGIIg+KUNz2lbmhSALEPW0MDFNvU7sEGwwOsug9DKWslGq/lNBoIDYC6sI5Jxz8pAA9j2oMnO3xIO1K/hfAYH5G/f93rhvz0Xifcmi0NaE4atmxx4LktnA2Jx4zFcbazosGpzz58QPbqZLafDD7usmWpHRXAEfMfxFAwGGxCJJfc8cOTJaf2ivVU5ABwInJYpDJij/hMbbBmewTxKY29F/iuzmEBfSpLll2sNoYgvPcaCUBA2lWOOyY5FeU1jPcCmwaDEfwW1EH2ksEQfsFGnPnbHa+qN0T5Ksj2ur3QNkQWZKkR5A+0DHghIe3OP5oI+DAGd3wdRZb+TjItedVA7JuvjWHHC+mRv6i+A70B5DETGYH1ghcn4lV01gfRxZh+oD7UP66+G2AdtB0HXJBXxn+AIEZvc617xyI3WxRBVy13yMoSY9HHI0yB5pVpGvQ2OG7JFl7LGkDUC1mgyGMYGh0pe7mWhAoVlmr6h4EJAiCFvVBcZQICaVEFy3WKPJm+2I2szZB8T1p2yz0CACHEn4pUSmh0O6F6Nm+st+irnYXCAWBNdOhzECQ461sonKQ5Qle99vfCN4N7iiZl5NhpGtiijUL2AoaXDbWVOxhlf9fikcbNvoCc8nvH9/C938/GMr32w8j598+ReAXw7n40YL5YZG/pe2nC/49eMO722gbfo4+6cNN/2T8bJbISngfy8M1/sPY3S1+br657OB8NcC4ldfzvXlPmetY/zv08ZdmkfpzqSqkqoSzKz39GRRJtbnW+aaccZc87/OT+atlq2OZyNOl/dksbw9n26Lo9rkkefbvh4lQxYnDSW1+qRw9Bfb9d3UYes6xJTixfT9D13k8qNC/9MOHByfgccaAD1nteL/xkVrPRVlI0l4agSbioLo+tJA/X9Mqs8qG8tzuyXiIkeWAGwiL4jC8XHVPtRgzYL7poAwzcf9oWbDLbNfa3BkZsKMwO3DbZBJ1hV2nT0Yeq6b6rOJkA6CsH5gumrwpjQN4q+xE7pgI6DpOE+Qsux8v6lgkHYNwC3gEmPv4KOA7Asrm8dHwYboTK4ax9I35l9LH1MYx/I76rmmCiFlpjIr6NPjmAEG6GYxKNChn3ZL/oDwUbaB+oj6rP7A9BH3LQPoKls5cI+sBpwZh9D6Duzj6UPVdHGH1if4zAENE+nI/yx+iHX8DxnxwbYh7OFueHNyy/aQLJB9InNpq9lEGcycLbfdBkse/RXaR+CP5QBgo4cgsggZtBbrhEHzQ9NwVWJdPE+I6ixfMlgmsbyOzKYc8bAtpOFgzkC9845J9vcgQO6tbA2DQ4gyFtrTJF5o0VE/F7XC47nOjgyqMmGMMAJgWNp2DV5PiasfgzXRLk+KTqCtZA+LJyvoyRp+oZATTtTW9P3rM8RxlgXKdmwSzeB33HMc9A3Hb9ZfK0skYUqx3Pl95i+TdP3gB/gpoz6oGBqow/cgFUfSNzaxIiN0jU3EM4m+9K54EVkn0EwqXI2bGQmSg2YEPzAPCNYBl32TkfiPBd92VTt6MMfbxpEBRv7pmrRxyxdFX1GH7ah0zTszuh4OSZGbFi8YBWgQNlkQE8gNvyBfUTcs4/1SWxcPRQR3j7IH5zYx7HwZdM36YPni+FkynpT+vaNuDPIOVECFe0er/u2Td99XZHBxLkNxklFJ368yT6RcMKvl0GcyKCJuTvAZoT9KB39pLHzEzlvbdXgYJ7gQGXgG8vPH4SJDQ6mCkZw0JKMWLjbY+0jrpdXmkC4EUEOvPpAjAShucE3Va/5uIlyCZDKCrXIcQsAKMqsrADpQyADfcG04MabdyZs1JJl0Ei4yfNhMCBNowPpEybPmr7XZracK0TpRYpEusn7pql6QMAZ5TwxEELyWOUj/66VHHoh2xG8VTaKpaGSQZ6bY1YSrIf85SBRoWLYoQ4IUg6ae1P1KH6JJv6+glX6c84XxC9XmIBowGQ1xGJT9eYxa3C0XTBRsifcHfRlwISVF+hZWTStTDF1wI8io3hhGJFC9kHpcq3LtgcBXZQ+OMOfxTM1FKOfqrutkXnJwBnVZPtoDdkxOn0D9CHBkfqr64ZnlelJYz7Z0YWcFVcOu1FyaQ8EtKA7vPw0YhdHqlUlkoHD1fFFk69KKIYzwhZpjBmM3RX8RvkSsg9cdxgZLJ+oPIoMxsC9ycvZyYDkvAJ2EAz7Thp4iTWHA3bt+pAKBPbu7J0N3eKgB37nMrjE2jteL640Fc3YVA0BRx8o0XZ/vDI390HPb7T/bYFTrjrpv5K+EWY+2k3MhLKpIRtB8OTMInftHklUU/XIgGTRvRxuzYeLqectcRI2QQo8n1ZblFgA5RJWYHAJ+gCncwrahQeQR6cP5utSDTW8hhflAuTRKZPAM+erTScbbJc+oK9q1+iN36esNo61En/yCPnAkYgNcRIlnYO+UZtnxNjgF4k4/rM12B7f0H6HwQbNV96O+J1iH7xPO8G0m6SPM/to83kcevq8fVRkt5dBnTBV9t9HATY0/lf6oGnZNVUbiMk4fsLTrjOMnAffWfNNGvX4bTZ9z05fuk5cdzJ9FFWM0IVLBqMSKcVQi8Mkod1VVIhQIro3X9t1D35mBk6HFaJ+g1ltfA/EU2/qXzqaKAPQhwZMxdrrmuu9zodgba2bqV6kH3c2R7cUB0E4yHWnx5rSYrH2QdeLK03IdAsq3cjW2CujJs+7GdYH7Oiz88n7VvLrtSZu03cuLXNn0kxPN30LHrf0UYS34QR0eTqfbgRuY5Rxdj7JcE43f0Pq5k97unbCo03kRB87PvXSTWluplAnMzd/PJvPDdPYcycLTkZhmISnY1zYHQTyJ8uO859agdarA7o+fFP1udJxs6Tlp9K3weTczTfMfCcbi1uYbKUIbDS3QIDl6BpxbaJ5Ma6CWCfa/lsWlQXW5p566c2P3GbgYoRx57d9nNsKHvZmKHL6dRhydmPzQnYSuuLY6pIrN8/o143zWBPmpBJ0vsaUCb0eFGtOBh1rN4OBN75eFjSNqBL3yqJDsl+UujT2Yln0EcXKUcOaL7NfUYTaI2Qa3FS94mPph1j18/X9LZq+g4gmGZw3VW+avnO+aDsb0lSVaCifN/qG0MUjs0Q7Cowrq236mHML/FL5yGoZZsKLJir5mybjIJ3vGlMP+oA17O/ZCyuKX8yeINPdN30XTackg+zpVIuO5NArTRqYGAnQh/I7I3XU6FORgg6ouXSKPgKP5MQ+UB9A06l9xFBTuLYP+H79UMRN+0B+r+yDjuTAPpDfedNfmWId2YfgL9x8zocBfbt/DWAr5+z5uZAV2WqX/ZLb7D9mPMMazUfAGgv3HeP84Eqty3tKoOyD16hxwboUUdFedkMG8QIZqJxjRjZVE+5N8/VqoE4ZzBlzsgy0+3qtga/hTnlT8/Uh7xkn686UPb/pWxvQS853ZLCT8xhwNJlrKKDe/3r6eK5K8KaJkio5EpjAyBVY+SZomG85fAlWW4BPTdUo/CpF1kaEjqOF0wdd9bl05OmbylokeGHzwX/1vvO7MoUKNDq/HGJn03cgfWVk+RNquAd94MjBjmgEBmCu+XADVKDZNlUv+qip2jR9a0mK6OvYuGz6zhIh8tvpq/mQPsMvBcZbkmFjRbn1ByDgkTerD8VG04dL9RnOOU9v8BYZQEIjSqcJy347Nqw/2NrHmqfsV2V//lCECGOvcuAX5EYPRURs/dWhc0+f/vTCXw3efGgep9+hemNMvrjpezKMEaf0TjJcA2SfMu2CjghvH3dk4BuPja2OBvJmq/feqM7+tPi92/BsbFoxaX3E8zKIU1p267IM3uQBg2aD7sGaDQ6ewJqXwcHLbh96h+v5SlMmKtpUHV1x2EQJ5ZMSwvFbiqphGXU6kExZxxE4nzZBozNE+rpCakOqYZ4+SVHgV63pexk1BCd5hj/AwCWrLx5TlFDZgBAVDK4CK/VY9ePeVD1hvtpgxvHzVsFhdmG+out20/dA+hYtIfSVmNEBMX3OcQA2sJJzyAobim83fc9aF6UbY0ChAiqd6RjhBxIwVUOsNH0PDLoLGn0jArhQFaPbSjUPr/lGtw8M5DKYVlvhYZWeaFP1aFh86BIds9JX9nGr6RtMsKbTBtagjJZAXopLmijQPf6GG2maPv9UQFH2MQh/PF+T6fGlyOvBfg9IRjGfuNeAndfwjce1mfVG3JF0dTtj+9XCSyQmYTMeLAOSKcjgsazgoEDJyn+tDKi5XjEJMlAjdDaDYpE1qHM373HytW/6FlsQHDzbXM+BWg/ogmSPOvc44CDPDZPqXcN4oLvliC6MUN/xekUjOL+bpQuSFZtgA6FFRDZ9519VFg0Qx6x4TARZBj5tV1kJpJ4jzITQoJe/KeobfbiJ0qfOB04dAxLZzAY0X/edMAhEvFHjVgzBKBLdIk5xgI2+Qf7HiL5f6Mgtv6zzoXIzzgclh7JPUU1Hn9EzZZaijxkxh9FHyPqIjTVt2xQPbpOuFfh1bDCNU+bTBOBCD8N/b/po9sGJTH5ujK9xsbMPGqmZfs2L9uHehI86Ul26C3srXdM3ZcOYlAwjA5xvaPJlXJK9KfQNpKSSAsy++70VwMIiKynBdXK3qzB4MdCavgd/70/r9oCINz3cqCXjB8eB+9uE8XMlJamPyJOjiYQOtKOFA1wPA14BQgZOIgMxZZIB0QX4c3Zumuu73rvsm34TB80jCsy16Ruo2eBgpTmIoTtYU5mTDBzwNzhADFGSa/D3WGL5YMO/s9UPCpgiXlJpOiN2NtXbH+2aqvt890jS4weITy9pOVt2Xg2w08GvM0uQDFGHj7P5+jgEoSXagTrwRwbgsZnvDl0yzuqjZUe7aNjN5/90i77o6xJ9m0nb3nyi89THiczSfYxgr2UWo/lonMy3E4hLMAL0Qeut8Nljw03e7He4UbHBULePomT6+WY5VZ7vHDtb+prP3WByNx/qY0Ny53stXDov65DkCH5CGbvhZ7g1LN/nfq82LzdvjxxMjGDHdVlwhFkVhcE/adiefq90NjAvZGDkTP7ZuCbX8GxdmMtwJGij6qpUeGjetsakcV6+RjA3ZUBBsfnt/YeUrrB2yEASxN1vra1aEL7P9XTQlH4OMxI6gMfw3zRRhm+ixKiTtKg6hLIjnm/3f7RTmgW1dySKlqTvYDBPTog+aWolh19Et6ZWbHAMPmrwTdVaISiaajX/fpl6WRrSxZmXNpymPkBHtWk34Su7dfQY0mQMMsC3xpIAsXYNevBN3yUDPP7y9FXqeqvpW3pqar5g+qbT+MIf6COD5SYsKIMctOSn6AMa8zEzvbQP0AE/FHFiHwiy2w9FXNgH0XdhH5Y+4XdB585DEXg0GkPoayAnTNqm76iqAPmrKfrAYArtg/SB+ENsbx6UIB0lrLucRQjd7xpszEh54zHoQNk3/QqeJZJxgUTz2RcyWDdr3WsZjJ0Mmi/ZPCA0N/5ZwDYdnicnXymWadadg2Rum74jqKl6yWCKDO5i7fEJbSc3sIY2OLE7PETOy8cKw00ddt3CwVoDsWZlAJPTVveO1/ON4BGPeurqNcnyn2yEx2hsqlbFUqS7so1+ky5sqo7gvgPbLHjW9A2BhhtGpVJ91xFF5SWD9U+AtAbCMPfsUQOF9q2qlBtreBlwzfr4bpuMI+lK59lk0IRf7CZdXEXDJ798U7WpeoGgO30Fq9Om77Wh4sY6JEBYNECgvdVHebGujxBsKP6WPnCksQ982rRnm4NIQV2xYJRkDgBdAzo3Ve/tY1j7bcPSD5BJEH3A77KPE2yw/aoQgD6IeTw2UOeuYVf0gf5A9RG8bsML6prwPA/5wRpL50pzGJsxJYEhazS/6+zI2ar1xbgRin5VwWofgdVRxFC3wanr7vSmcjb44wT5WgbjSgbbdTuGphJj3drGD+1kkIKsue0DEC/E2pkMSqR7GYTK4AQHiCv6R7YFazNq59phbTg5a+L8DtcL39M0AzxHSqk3dirz5RRQzlS0wSWWfFSZUHZIoOQ4aFjDdyLAJlaJPjz9NoKUnPOlYx6NUAJWzjfIc1CTcc6nWy+Lcqz/oT0RtuDldNY98lQo+7V5o45YuNh4l79EsjjGPG4NoK9wwFWMNU4aFw02il/oj6slUgcpPyRsAC2QPQfx/lh3LNkfn9jHQKCTfUj8cxJYgVxlrxHowOFHaB/BWX1tEmwfYApChNiHZM2IT2z6XoLmpuoB9JVeVgBm2CAc1tyAP9RDqqgyy2WX2vQdzn5R1UAHTJMCok1i/QASmRKqw8Zy6rVuBqHy091DERXoYLBaDqY34kqlGH7rmr7pM2U+CV/lg5s6oBpj1oBxmPG3wGDgumyCKIOFy+lkQA3PrjoLekNrgJiI5GyaqsmXAHb5qSzBn2CcBEgYNzJAEakNkgxU9h4HKYPmgDoOdk+67bBW8i4d8b4kPmcYGQxc14mqYw357jIIksFOzsg79wK/3/WyRnAU5oP6EnTABgfC0B9n0OoAsebJ+cR5Q2BA92bEkAZ0nJicE0RtTu65oc+Qpt/ZBj7mYwNq36jitGH4uCXJGlcslD7IIsLIpeYb4Ht0A2GfKCc0jRhs7qb5hmv6XkvBbqvVviBU8H4uMhC/+fgvonEczeJGynMAn+OY34wUnpsIMNBp9LHTa/qg+SDoFlqtL9g4iKYPDEybjoCKzSJzRvdbjr7pnNnczDc385VdNEEjAFR+MPYRCzp9BM+50UeNO9HHXeecm95s8+FGpMGyrhsn92xW1U061VGv6JksZ9y04R7rF3ZC+S2Krgk8Az5MoAw6SG/Y8EyjPA6wstTkD6qndVfwpiLdbMBDhSXjlltDebSEDJIIhPlS37KNpaOtzj0OpuBAN6KFtRm4MNROz7B2ggPXwF/3CmtTGvjhJfBCsmjO6kNE/1On0oThONYMm9fbP6qu19W43HOlPEjb6HSeyc8F++M2WiXd9U0mI3No7G1VBsPblqy+33ixtL4OkcHxY65Anc33GvoMDggb6ATGjfk2dDV7nqz68Nhoj5Zv54sGYcQGJgRKM2ND3gWWkSq/dmB92/ZlmSXOZFXz9XXZPmDj5HSV51tZueWXF84NttFX61aW3zHZ5xv2b0kyxMnefhEb8u6pDTZovjNBx5lb6Qkb3WlBehBu8F5rutVgsnbcINCmH4JZxVRmBFRGL+JorE43RTgZhAcsiLEqHoY/gqTBAUWxYlsu0qd1w6w7zLo73Uyjh40oAP+I03nyWz/NDRwc37t/MU/lRagF9jXC44BnCo+Dqf85CX/D/fZU9mF19PjvXeL3Za8XH8/xMdSoe1Cuy3813ZT9SN6rMtWcE2RqYxjHu2lqneooQfZQtXKOMqtRzbdDIIZ05ePS1ezNb87tpc+kBcbVfCQWLlliCVcEiO89yaMpKVO3Jk/Qw9zI3umojqEWfcthac9KxwbPF0JfObak7/iPHluAByS6JtBXzZYV/Ez6VGw4ncMSdJRQdOlDEdf2sfRwaR+CjZ19cOn9hn30c4iqXtawdlyR+BPBjNGJ1qbvfH8a8TvJTigeaDoaBHHeGEAfab+gD3LbYh+oj3jWPsAfBPNLTeQDNg46htCGZ1zExbZg5w5XMG6tpc2+jOeOtabfMtaOyYNvem2HOSq0/5qC2tEYYR/GcLKfG12GyGAWfeyvRL83ZDDOZLB0TnLWd1BVQzba0USFBDdGUyxocHDW9I1Yczjgt3ofwbTIIDYy0MbyZ2SwZIi2OicJNY6bwG+sHLzb4DtfL3xPExr92vRcU/Wgz6zagA2WwibJLCKq/2S5x+YA0ZFq5hGBKFOg4l97UCtNxhmoRRqrbe5LSZSX3TV9T7LWctqUGR0Dh6xb9GFVac1X63Z+IbjAQgR8Fn2cnjJ9QItswLbpGzcxmk/oUyeB+iB1aF8OOEPQ1bbJGD4LfyyE3DwjAM+IDZyvN2+ifaxxZw9F4LrCWrOPpE+e+rO9DQH2YenD+UBXG2xQ4tEa7kUfu4cikD6yX9FHs9+JEMrACgOsrX2AVgsvYCeKjbv2EV2mvaKiDzacPLhCi+i60J+lti92dKvp2/FmMOSB4NdwMvDr3m/6VgetTd9+XUkScQ2nX4IL7DNqM+Kg3YMXTec3ZRAbGWgCjzigf3VBcfAarGmwjDK4gbUzGdASGxl0rG1w8AHXyytN63Osb+BIM4pfWT0wvACwFJegZaFmXxT8uGfNsF5Wl1gRNUw2XqCLNhBYb1UskM/Mn6Zmrz2oSEaOqwcDlbRQkSNlGj0ABAtaFS7il+g7ZknWOCirRQLmg+9zZQ+V1Sd9I4KqSqnLmRNzg3x9Yla/WMPkcaqFoLODTLaSPtdwCkEF6gOD8/U/nHBBNlwEDqALNBrobcaidbJ9rACMNwmkj9klm0j6SvZFH+uL3mQM2CgdcAVk/Y3o06AWcKjliZE0gO2NogUrAvj0qFa9kMzUg6gfH4y0rxLAgVH64MZoSHjsqwTEPjA2iSj5gezHMIFaFxVl+ovm9dvpAIhCIKCWvFvTd/IGeCFscFygD8Oy/KYYZmGSK868BgewusZJ07ckBSoDwloLmE4anpE+o1+3GbOcVb+1BuJAackgKmqNxTdiF5iLuIGDJoNhZDAidgHsbRkQDiLYb6DO9ziYWxwcdDk/76rfZg3yOe98vf6N4DOOhrzUAbLMNyVitkckMSmydk3fdWvIfExBBmBj/U9YMaOzw2XO3qqcm4vhnHp4cD4JjClOw/n0mGiADADtnIHgseOA+QbIfdC6KlZ9bxRwC/cgeBP1qteboqN82i+i/2IG7xGaRUAQ3udzgSlShZ5ownxtiU7f0Ds7TOoRotoHZ7ttXc0mh8HfIfe5w4adr4Ktzu846JM1ho5bjPDfpsimsBEGG/VfblyXsuBUZMvjrFV3fdj5jD4267r3MtEpkcqe7OwB8FbtaOOirfH4QGEN/0b6YXAqetjq1zFtbs2TNXb3atNm5vbN1/3GbEYymg07GayEB1nkiooRDLlvJ8BqqsY3qvO4gV/hE4LRWuQCBzPHrabqTGI3+JuDE2mvcyf7Ye+1mg7Z/r6Bf5yuKwGTWaPWXXKTYswHXC9uBJ/4ifHGE5sCXnQUMtZ8U5Szot1h5uMJ2yuFxkbIdufsI/ujqaapdTufWfY2fZTvV+id947qgmRvz/Hb/+6OCtuj4JT9mnmx4Hbcq1/CY+EX2HBPE7j3Q2nj+3aTnPtbxJkNcs1IaXzH6mDZxzDzbbBj6QNHkWrgH2Clzc4DjNAvp+hD1TB0runt98iwubdvXMxnoyuyD67YCH1G9lf2gVUIht14zj7oHuscT7crMTAKliya/7wBxOD/QNsqWWnlpsu59u1FKchvVxYHGtBHUGVHaKG1gityTfbO9sUn++MqWTeiPXVtA2T6NiE41ch/18BfGnrkh4Ir64NuNtfP/ju9V1jrNu1oHa/EAZKJdulwMOwaIIPEwR2sheBgm1F98etlQdMwb3RNJ2EqBAJyfGqj9LUeTYamPXS8oESuiMj7ZcBIe/MhCB+AMuXmtrENGhz1vROp0IGbWdHS6RuBiSs7nePujOIXRlIT4AokoSzK/IKslmPZbN4kZtCBvjmXlL50lJccxRUMQt+qPMbGARIxQccB2HfSGw21kRQCK8zGFn2KP1i2+BXAjI5J3/xq7MNgIxSTE/l19A2yFfeWdW6qrn4rgb2xX5dRSlM1bPLaALyO5JJ3g420D82OWeXX9gGGfmof8P3UPgCot5q+4ciGfI7DEPx2Oh2Vk7BrMG8b7IJ9kK2C6TvetvJzT+jOjc6bTM9lEC+QAesywvpTtI+8V2vwO8aAaEr+GEMu4Ei/C2ssX9f2mVxCmr5BBpPepH1fBtpY7mSw9Et+55AFqXjpfHYcrDeWEw5mxxq/2dyvwU3f0w7c7b9rfD8ufd/r+eO5FXVPMIbAAHHI2GjMYdb8OCMvBz7rbmTZTzpTqUkRM7xlH2qsixRNWsD40Dlhg+06w6cgafE567PTB/xOR59paqUGW9yUgWjYxNJhkZMAUmAD3uoDNrGUQG56oA8MEEL0EXwPncRatoJgwUsDvmuqhuAn5+EnsXzDvdNRePqWwRNrvaGYG/OVX6AvgxrltxlDCJyjVfkyIIk4a/rOoGZc6CODONOYirQ5GQCfWnVt9gGfhBe1j/VJbGzsQwcaHZW9IX07f3BhHwFBXvB8TabwudPRvuFZnBMlUNHu8bqbhudxYW8bDPV1EZPnMljs8MMOGz/eZL+iGqElBs33rAxC6TMyUCPMRAHI4weTxM5VlSS+kYlt850bOZ/b78bf35BB3JXBiZzjDbHWBsLc7s3mMfve/t7X85WmGZHKkcfZuYxWsnncQvCyMvNRZBjHT6atkD3dK8w3yVjXMIx4k5S0UbkZCCxu+mb6uPGdIzCkr/k6ma8CiJov2PNSIHeMW5H/yjaPcRjgrGSJnn7DbA51IIFVe1R/0Zyb9XJ8oODcbNd8+uJLyUADpqFRLKyR8uCGP63yMX1IE38fQMyAtYo+5Rfooh87+iL/hnrA4wHN9FRA3H9SzgQrOLl3k10cNGUkFCCztWHVWhUw1fB0Y21gGc1IuriHAyuwSx/02o10kGIfsNyAdbFq4rJmwgk9FIH0le20pu+E/bR6QJwVfY7fTgqZG1RwUldjMA5UzvBbwtVinUg2sqJ1OZez8jMbJeIzm76dDCTTxzWmjCO8YvUHZQDrpwwkIEb3uGTG1Y6iu+1HKoNhZDBwbyrGMEgpkqHp+0QGATLg5MbjoO2Tm+Z6CMOBd5G9qWqLoYsdQSCk5qEyIP2+UAayyDXWBAfxMdcrGsGBWfjf8jRBTmjb9E3j1kxugxkyH/2RgyNcSpTPGU3dfOAGgx4IjnQ+AgT+rf6jHUmOnE3mY8OzEeeSSD5ujKM6dPpbzPuVfJHaREuj9NHn0+xg3WPNuNho6H3NGVK+KBVDITh3kp9a1GgrVMVitJtCn5tvNH1VT0bfhJqPNBbfG2yPgTR2rP/XsyzKjIfnd7O2EUy72e6MK5fFG6Ejl+dzd0Oj6818+FAE6MNh1vFvppzDDJTsdmx+m1n1KS0Rrml5evbMuiYbEt/g6Rug4yH3djKQRMHIAOFHDyecVDtaUK0ydhCiexWIFRsa+AGrupfIm6pj+U3y6ZP+4djHfGMneiDzvpwdDrrO/W/HDR2RfGUNR98e434NraZvZTBx3fVjFD8kWrY6JnvOB0VNz1eajghdo84lgB6g9MtnQtoct6JsY2wy8a6pui1/FkDBurumb654RIHgkl9HH4Q7SZdWryAab/0J5vgLGFfn0XSIBTzNFgKriJnPRAOzlcEwEjXxyQ7wpvG9HQdFVTfO5/PREq5QxZlp6IOR/D6Ei/lMk7GVGwiI/jRzqcoBMduarI9thPT4jywY0XzGL/nIEv54VE7APlrV73S+TQAF9lFVyV6xPG/6rq+tKXiIPlZGb4Jrlh/gzh6TKc1Lz3MzH+DABOs2MG9HF7gu9raYHbzpd3bFOEepwoqo14vkn7n5uimhpbVFSGt8H/rbdU+a6yVheNzDV0cg/nZ7E9p09Evz6SW3WP4HG/13Dc8s52FwEBsczC0OHNaK6FoXfeIV1vY4tVjb4IB4DI81v3X7Parnl7ynFDw/Jmp6WSN4lgcnR9ziwx7CrEyDm6ofwuhval1R/doQWIR4dotVXfvG2UUTZDF687ypetP0HYG7rfBbn4XjG02tSRdmDtCMt+Rn3y9TMrjCUZZeRx1AuKMQ22SMQRzo4bLJGHS+FxboY9tUfd30TZsP7KtMnzR9T6QPRiIOQQ/M7+z8QiDG/MJn0lU64AZb0Ec6aNGHnrFB4tH0MUUf8QL7gO93H4o4tQ/IIO82fcc09oH+AHq/mn2ELhLeX81o+LMYdzQDfbt/DWAr5+07ahx2Ta/lMZCSKpFff4gh2iLdZ5sHG4I/i3xZAwMOGzw6rHVIrntTZbDF314GsZGBYvK2DNZOHiD7OaXh+bAFbXhe0aDggJuvD6xNkQH8No9BW9O3Nl+XnL0MJslghzVuQG9sJNa48X1hbe6xlj7RrzEEE/vs+8tdrzqec02ULWrcNlVX5J7BCmbyBPJa0TdVg5NdJGTTKN2E6PcA2yzHNoKBQs1uE0C+ow98+mnTNzj3Kg0ZTw5Gn0FSZs2u8e4qYsKqkmx6qatN0zcqGBYmB72oX5s8qdI87ZAlBqkqJTZqnrtN3yxozpaKvlnOrtEHN7H5x+hj0bB9KELTL1PZ2DdV8z2qLu3wJ5l5shHR7SOu7OOYB+w3YJ67D0Wo0o3Ku30cA4YOxCg46YvcLDp9wlpbZKOPofoIxjjGcHmv28xrmr6Hw276AWMLMDDx3OTXdZR1ALIZh8kdxs9lENZWMcEzugRRaTWLElvFn5Fzs2nF5Ea/995y7abby6DtFSc46Pbr5Xzd9O0e5GjAKr+hdhlhsda2aVLl8zI4tbdj7mFw0DPxL3+98JUDixO4KLgd7Xtvqq6/cZPY8Vts+h7Rvq9bZ03fNBJutqbvZXAQnGTJe4CBS1ZfPEYlFPk5ah9HfjOwGkJo/bg1VcNRFJXkj59vcZOyqjSNX/RYfOJ+XtnyFPoOmaU6pMk42MBRR5BaIFCKkszmB8w3hF/QB9EE3ycsgX8e0vQ9Sy4zkL6ihWgi3h9/y4oGBMliCoUXEKl7KCKSrrUpJlq7feRuIvqQwBTpmkJKDRx4E9SCjk/pK9zcavoeJZsBgLFN39EDiApciyZq+oZgv+y31p3FDtkFUALJsOe3kUKBqTY8B2yAYiCCe254hjUcNmCjxASUMDw28hP77XvYpukbbRDVKzzSScFaS511q/isWyKDsZFBdDm3pu8lAxZ+EAO5QQf7CMGkx/0eBxW8S7AgDoH2HFjjDAdnWGunIKhYgwMMonaB335dkQHigISK8gYcJIYM1iBhjJM1Klh0gciXv17XCI70AjB27ymaMaDnbQFHm4/rbzUfr4VDqIduOozO/Nv6dWv6rq0Qvq2fjxtN1fRjCEdUpVOatM02q5s4jYL6UsfhVkf2zdIVhqCSdL8TCg46hOxlg/KC9r6/R3B0sfRhNjGeb8J8g/npQm6b5Ao8kb4HhkzTt5lzjgirjzliDNaW1YfO5/QhgSa+y8zaB8rPaavNt7lcM/LUOyNxRM3NTfbDLuTtd3b6DDbO5wNaHL8GG3Y+afrOIP5E7Llly0LnTd9qR2ag+C9qpt1k63WLfQMRPcz8Iqy5opWcT36LX/NP4IiHLKJ72kpEgP4pTdUkTlxj4W8aOSPbm6bqKzmzjgbM13+st55t+p4qmDFE52F++wzWQChKiwTuu3wWA97WXD90LQx+znGKLpaSZmFE2YKaYlRQHh9yvbinyXtqM1SavquaIqKY0wtZNwgp1xq79g6TgDQTLVweBEBC9KWBRVsYC2Qh9B13tVDQSvRLBuKhWiS/gk3KhE70JDrqr6AfUDGawWVVE4240rYuNaMnOC60oxI9Z0+kD5uVgQ7I8pVfGJIkTBVz3ZuIg9mEm/o4ASBB98JO8B1ZXKoEfZzaB0++s49GwubJweJyHvNNwo3zZr6p2kWysaFvynxhsdENzdlbX3ds/sT3gM8Bja5QTal7j/GUsa+vqqIpayRv3q8R6SB7rF/wL9sODraM2BSbYTEe99D2sPlaGp41mTn8aROvy+ao2sP2S+hb5hgb/JF/MTaYgWbozWZH6D7oaNzgYGzX4MpNt63oWDvBAXmheQdrLomJsEmqUwvKPm4214fBwe3LYG2CvQXgYNnbuov73wcETq84nuuh+nXTN4JxSQM2hLOm70NeeOSQe5KWwifSB5kDnLViw3F/v0xtFrzxmQraSp5SNNVzhEcNeSRHFoSZ16bJOMqQkSXbXMrsVhk4pY/GP9g5aNM3ldlBH7bpu2RQPSaxoW/pPEgHtuk7N+3NO0eCdaS3Or/6PhMSFmfCeVRomr6lqToWrpVflzGf2sfo9mHL3cY+lI2dfajizuxj6WOqfdRmRjv5VdP3dPwifYMBdafpe9kH8Wvocw6/2ceu2XfzoETTkay7EULjww2DNQq7xe9ag/CM/qWfPdkNnXy2k0GwDNYapbdrGYwnZDAjuuwd/oz/sw9y3GyuD7HBXHeKDFYkCWvMOSO06buRoraPMphGBnusoQ3i28QdiKrpe3by1C5pXWyuh8RuBZKiuBlYqeSj1iaD6M316VtRBtFlgGt8RMAU8dLjORfFB1SVWkNxbSrUtHfW9A2Bhhs2A+5NqOQ0+g7HO2ADzqyglHjnLaoS2rcsVwMdlQHvoiulKOZoA1myWvQ1GTThH59IH2Zp2HBfuhpqXFvmLhr0iL5N0zdurEMChEVDbqwX+mhpnyU5sdGbqkFYGJiE6AMyMwp0BBH91RjGPgLtI87tIy7sIyAAPLOPQ/YJv0bfhPkmfCq/zn5VCMzw7BDv/K4AVbBh9bH8geqDdBRFn+oDrw3+UudKcxibaWDTe7DuPMOVw65uKt4W2N7Efjf6KLEYnxjmwYaFIVjD26W31bmzrdFlMLYyiJN1jQzsnuLlbP1QiAxO1nAyiKaOblsOa1hd2mHtNQ8YbGVw0lx/hoNAfwCL9Mqp33+RPoRs99kncn7n6+XHcyDw/v0QwnLC+TdoWMusHieclSxhILSyKljeNlXnfEXDGoePi1d4U0HFIJqjZfVVLVj0ISZgC16RcSz6ED0D5lub98j1aCMn+uCXSNbo32s++D5wPmz6xgrOBCCW8eUS0vRd/EY62aLPB8E5LfFeOOAnGQc4G6ApsaM6QNWvJu3IzTb5JT4XXbW7D9ARbxKQFLAmOxGUbDr7wMBQ9NGCfcZGTeGbvvOXgzGZxCV9I+pPtTlljkf8mqZv7AoGETS/dgiINonjbymDngVR1WMxh4FVJiZgH2TeEiNVUMObcfGrTaiDnHrfZAGbQ3EwmkB43QYXCkJ7xRE3GNCpbopLCOivBm5ENQ6rCZDXpwxq6+wyyAS0ENZkntWExJoEyaIafCCg28ekcSS9MboR1oSq/m6DJAPV7x4HqBuSQSMFN/wp6wrJAXq+g7UihieJAPu5LwPG2qS1NMCpCe/KwMj57kMW+NoKmfsjrle/Edz9S9K52aBSyTfudn7A+tiNyJHmzdfNUz6AqAbkZh1RmdcZv6PTY0+Jd03Gdr4hDsdctX8yu0Pnk6pCDNODOmQ+2m2J6uQX6TPrZgWB6JttXS8/I9ilD5WtrO1IGQf2xuj3Jy/Q9REc6EQE7UlKt/rwPt/U2cx8Q+ZD5yD6cHw5+iZufmugsY/tfCKFDYYav3a+CnTa4Dv6ECE3PVAEe3athw4wTMUAB0mRoBCdkskJeA4IeI9788ZvMWCnSoBtll7JBhoDj0sR073HxBMat11TNeqN4WiU5PS2eWN58/yjT8aVjN24iLO3oit9vO5gPakMYPXh3tR/JgP5bEHtLQxJw3OcYU34PtZoyVwYGRgm1LeXmLrvaP/tpzQ67wO7r+4bz7bx/Z2vl/c0mUsb1iprPO7RI+XjYuLeeJd/qeSogQuoqagggcSPUOcwVy1TlOqmMfyGHdNF95iVVVXDlU2HWeRWVdLSxw3ea92iCeXhmOsOb+B6hiZ1ePUVM5LKIEfb2UUfJotSx8MVyJD5ema/bTLG6swa5o4fQufz4lMRTJF9s49VYdnIPtG+srEZm81XRT4tNtYgPJZzx9Jn1UsDB6l4RehIOanZYmPpnCq4RN5g5ePfdd32XiAoMEbZnlElK3iADOieXINQCcOl0XUlL1BRmLAGy77z1Og72S2pajt5eMrAyTl1dOEnm+yhSuLwTOuuimYR7NYYmzWso3RJpWuuNzho0yWGxDftNikRPj4rilhLHEThAL3Q6EI126/B2jFy6jCw/XnY/jC+3e+TsgbyfhrUYdX0Jc313ud8VAT1sqAJGMljt0PQ/Y240iwIDbY830NI63gO3y8Doo913MLRMGoJ6MpNoJq9+c25hwFps+BaDbM7PF4KKaVKqVwbEgduyliqhPIkP7Wx6CtZONlTYkqlcNNAGNpUveiDsinNF0IfxC0D6Ron9I38UTVVgz7yeCZID9NhY4o+clMpnGSjJuojWEeIDZJByoIdOGIDHb3Dxs4+qJnxyj4AGzv7yNMHGYbBBQpmjE60Nn3XPwqM/OKmB/PVaoZfoC8w2DMPRWClIwwmp+gjTuzDYKPpHPgNsDdL88LQwrhGLShSh3uxrQGBFTXdiq3yvY41OpKjYN/4K8DfqQzg4Q6yo6Y3BXl43AsA+wMutQY+ENDtA/QrxqAyGE/IoP/rAoID0BFV8wbvHykDtbfQdXvTNwcNZ03fhTV943ZsZTBfLAOqcmaAwzIIGKe3FAdjygMGc+bbzglrs2ONWz0eOJi0RnzI9fTx3CIU+08iTMPzwIgdrEuy5jUnOXzERFu7HwdSBhWDgEeNbevzrMk4KR1IcvA59wqE8a27+6bvdATaBIj8LlnJuviZ9ElEyfStPKY2Hc8v6IM89Ik+TDLX9IGBUCC/UEHY0EJNj6Xecl4ge311AtOCOu9vRq75alwGWDmsYwOgTUBo/0TE0hF82nN90rmjD+cDXW2wkZjEzQwdPepDnkrc6kOzzhHefqfYx9JH8Lqqowj0Bxf2ATLbySAAG83nEJ5xk+oYOm1CXThQP5SVCOBtyrqBshIcOP/XHOAbvmn5QgZxJgMNGghrF7rEpORkjVMZOJsRB+0evFjesdl5qG3dafo+l4E21ysO2kMq0e0tfY5gLRzWRFjjBAdXzfVnMuhYuyGD19jbBgetdeOdrucrTQi2zBhrs0YB0pu0oWaBDnU5EfKjUYpAB02RZ6uUZKhQjcRR62pQkfSZCwO2Rf6QP7IjwPk02oMsg+g7ZlmykqCs+BWiQPaPrLQyZFy3XiVQ4uKm6pHMrcBqBDi0qN9hNo86oM0T0nWsyuEjvKmPERJUsI4C1/a3QBzQ9B0D5Ldv+i7q6zUYvElg1QtlinodQF/JADMo1Bc1tQ7ld8J8jA2iT4NawCF9l0gXsYFVpQr2MQgtbGhwbqBYFZocB3VkcJAB6wX9b9+g+z8WbexD6NLXauD9XIOayEtUYxiaR2F3tznWPcwozBvLgcJp6OsbW9k+yq+9qR8HHn8ZismdTJfeQMpYYerrIu/NGHxSAFWMwDXyb0HjyEdtNmOqrCHGBZMNB62iAqYyRAbJtzBsbAFx0GQwjAxGRAskh5HBCC+D6DKg5BDImic4uMaaLCxYI3UoDuQ0iddFWkAGgoMAHISQwsnD+1+vbAQfZIh4H2ITvo9b7bC/7DO2t3r3Nelpq6nzydluLr6PVIk+nE8y6tzZaFznf7RJgTWVgxOCbWZXQx6b+TbgmiNlW/QZOcy4aLhfg2oO32i4SHGt820X7HTY+XYIkntCP+dyoE33c4dl1yBqGt/38zkGxT7Mun6+aeiLYJRi5Kfzmd1guh3C0NH2U6MP4wd41KEPw5zVu7nZX37YA/Gxm8N0rw/3xMI0k8wI7p517QMRsWmqnvAnZ4M7u7QyaL8dBgf+t+Pm27CtT89AZMi9jQxo3dGnP+N3mIHyN9zvBwKVyaPf0OnAABlY8KgsRvOR7mWTtQQkZNGxtrN9uy+soEOEzf/ZcVA872Q/9gPNGl7nY4M1oGXusDbiCvcXz2x9sev5SlNGwOZ9DVFVBgYmhYmmVOmaPKOVJYdR/EN4rgSpbzNd82l2FGa+IACMjv/cJIsmKZsf9x78zuSXMlyib2z4RcLWRwVuNZ9ruOdonPQBgRZmPYuu1IfosldNIXAbSt9MPWiTsc0Gwwu6S7Tvc/04CN+kDb+G6iDxu8FG3pGiENNXTrCKqx4brbG3AV/omyf24ejDzSH/dOhjHvoYWP0D2S++M4n3Gwa+lYMrNkLfpvFdtYn+AKsQV/ax21TaayoU46NBlip8tvEd5MxfOEnjcfuG51aFw0/8Cgqm3sj2W5YD22DJ1PohWiPaGmOzBoMYsCGBZW+0ju4PooOo25tU2nANq4KZn+TXdF+QX5UdGbCNPr5wwHpN+7X31lqANVX69DiIDQ56ZW6Pg3GJtYhnsdZ8LOH+5gMGbg/Y4uBjrqeDJg50MDs5hCWbVDqiEeQbWvNhRCkddmjfVP34pMa2yW+NpVIfGPju38Vj+kZufkkfOJ0AA981VWeJHhpsa5Q0fQMOdk3VSd/aRI9PbSTFY7JIHZX28iiO5qugq/jdOMAw+jgMnl7GuWQAGzTLvhwa6pyOCkEGE2SQ/CpgVAZRx1DXb30OewxBS0zg19JXRxzDYCMUk3o0CpjsDcoms0JMJl2lAwyE1iaFCYViI+0DRWrtt57cwwSAaEn7PbEP+N6bkTs2zuwj7TLvTcYk6NnaNGDHvdVbefMPd5z5kt7wjPw63rr/2z0kULpvOqd1w/u1DnIrg/wcRs5XMkD7yHu1Bm6yp+vi0Y/aJawRsAavy2tgIMlOsctgPCGDx7r3mr75rd6Rgb04hMC3jqdfg4d1evM14ECSr7mimQAZzIg5GQfafT1GJ7Bo4WPpnQzK3iLlfCWDLnvtbX6/6/lGcDTgMvnuTI7RmTUv/KkAg2TFhSuMeI91sRdmvUCNgqRF46zPTl9d9Ph20sfvuBnHwLXBRXRHmfxCMDUixECiaIANGIWgyQ022Hb6ju1qgXYYfYiO0EmQPmKoqAwo5RFncCxrI86ACXTlm2mBPpABObGFtHUeTqyZSic15iu/hY2s3rCoGjYwqSv6Sh9EHwRdrr8jSOdeHzlsKl48NriSw3y2qqvaB3wSXtQ+ENcNf6jJLvutfQg2rD+YHRsOk+2hA7RBFhXTbHS0b0J1chZidrokW+U1zvXrMdTX5WoCzb1Z40wG5DdUIaLfjo2xx0vEqT84k0HckYFprm92FDUdJv/NdwbYKmItGGte5zvZv7zh+UwGirV4AdbOcLDDWpxizTXcHzIADI0t1jQWgAJNw9/7Xy985cBkRkAQVHKEaDDvZGUD7qVCYOSs73gurU9YreAJjxtaUyHR13wdc0YR+QBSpFcBm1rHolUDK3AY629o4Bo1Jk0Dgv1BssAAh+fDrH7pCPSxNtlkqMRcgVMQXVOJS9kHzNcdix6P+lcJTDYQvhUxACdghKVKLEejY1m3IIg6/oZ6yOPMgfSJLta0ixigoeYLqCYE2QU2VWO5CHsMiN8MmGo40pX6qIVBZuj4CkdkHykNsQ+MSFUEon6yD8AkObEMDDf2kcE+BMRRj+VfNn0LjzVMG4+bqCqRoUrsAPtRhZRE1m/5YQLY15CSJitcl3O5fdMteEpZZCWMTh67t01zDtmfcKLqCspAgOCegqxkGGVw0fQtfoiiGbLpeZCC6z7GNxkMlsEENkgGg2UgaZD45J5k7HCg7YWuud7hoDB+hgNdl9dwTd9aN1AchJNBB/QNrHUcnAWSHWvAusWayCBYBu95vfqN4LXz1K3abGcfMvvP6ZZp+tZ/Dbrmm/xjySxqsM4XDIgdfZMzatrlab4R2Aw66H+Y4fYWc6P55IuCCo2rh5/PTDqFli3YhqO4r2sbTrfzDXKO7pqiI9hXZT6uOKXSxMH1tz5HWTLtvoZfs+682fTt5bcYnPyfTh9GTvTLxYgAvGtoxF4lcixn8ddp8PNN4detu/R/wz6szs2qtvGdG2KJ5snjrJDbva6Mufnt1KncK/PNb4ez2wZ+r8t5403VO7355mvJYDC7GjzhbPf4O50OEBu8holL+C7ec35uTmm+jnD/5IB/y/WwGApgm+QgGOo6d3KW/76to7G959edp2vcpSW29zThNTKwwU9X63AMnwRO7OowSXP73vtcL6w0DShpKuMsgftN1U7wZsPOZjssD143fVswRGzogyg2/fOuqfX4xFhvuKbqAT5o7EnCaYOz7loNKlrDN30nMfYIQeabbVjTZApLZMDNlhdN36p1A4SqVyJ97pFibnxfmFRnv8KSmeTfa/pmMKFIK0Osqqk0faM+EFhN6aCPWepqakMczt3No3ICxxSu6pd6eIF9FH3T2O9V0zfOd9L0PZG+vR7K3uY1xketlToa3WbOG57dGqwkXhf7OgzWDJ73gYosopjUB03E7+ZPpsggbUaw4ZHQBIMhP9dDQAaxwZ/wlrMInjsJkiQkn6tyGGnfNAOxuXz2S5rrPQ461mpht8a95vq5oeX6AYO0rRnWl8QFDq6w5nDAexT+tL8CiGTQLtkF3FHcOmb5gMDpBUETKFMae/HsFvcI+8bZOG5gZCk3qbkvIkF+2vR9jJOSRMn5+EQnctr0TTXNGTiyNQHiUQPNB9kxeha59k3VAfxGVOmVVok0ONBDazJe9AFrVULeCQv0sW2qvmj6RoeA8cNUGEDTd4ADVMCgI1p0WfqE3wn6IH7hM+ka+UmNlQuTUBZ3D0UQsCDIa7Cfoo84sQ/UB+igN1VfPxRxah/5/YZ9FCPn9rH0cdX0rTsw2gfInjGpMjU0A331HrOeQVs/tH1HjWAX8OJsATdZlV9/iMHZjJeBfbABlpibNUKxgWUk+DHqT+P/5kvQPiz+9jKIjQwUk8/IYK17JoNdc71veJ4dazMEa/VbxBrhbWjzNWCNmr7DrLtvLOfm68ZGymCqDAIYObM3WCMiyI7L9vYPWfC7z8Dxyhp1D3CQ8pDY7R2vFxzPGas57vumanCyS2/aW9Mi7ANs2fvjmqpXfAtGfZbVg08/bfpeAEVaFFjHwMqahb4YhhSmxYl131RdmZRt2sMdHxZGB837kWnQU5rwufJA4GNQiE3Vk/hsTd9T6bO3oKna0Yc/FmdH/BYtHHSd6KMn0sRvzecaOv1DEWcZ2fqztY+4so81zzxUBPTlp9hHXNiHqjzp2zwUoQPVPsgfOPqEtbbITX2g7kmmyG63mbOmb5Izbu6yRsgareHerFHOX+XXdZSVHLKZjc7DYfxcBvGMDKTKkzE3kTcqsXX+WcA2OsjFZ99veG64stPtZdD2ihMc3MXaddP36x4wUBwseTcckJjBX+lAh7Ub9nYHa2c4aH5tBslg/3DH3BYgvuT1skoTNn2PaN/XLWr6HvlrcIb9Zmv6TkHXE2mu6bsAgAo41m0+fSQ+6PgsA6shyqjUt5q0pek76aqgAnHZlJuyGkWfRFPlhAPmwzS8ZMXVjKiNTbkY8kukS4yVVIVN3wcxzO8hA2QYsBGCDfrzME3VS7+U+a7/qYCpN1U//pYVDQi6Q9XKkWTTgW2qHpUUZOBCmVGwfYD0VbxnD0UkgYNv1v/umr439hFgH5cPRZhGZjJVw0ijyTSIStM38asBU1Gy1c0UjDeaYVwFmUcC0Jq+WQjrt1ZvTQQcMOFTvYW5lXg4oRsdGX1YTJqkLze2nA5wSk+fSMavAcQwMhhGBgMCdeDbyiCMDAgAhRfyEcGVXYcDksEK2EHO7DtD5AHydX7AYQ3lHUYGwTJgnV/jYBf45X7V1t3goK2hQSPTx1VcxpD+dJc8oAzipgzsAwZh7C0qUbAFiC98vazShFuBZugoRMTjZIA9xs38G8/Xw8f2guIJCkLS9Hfrf+zmwCN7U/XYzMfKwo0MbyrJdlX3llwVykG0n08CLdp9a0RTk+7vS/iaCNDudvx0jt5HOVZGgMoMM5+h72jo1JCx+TTTvKlN1flfE+t9J/qY+p9GwsOJxujD0GJj5WFFY+brv/bzjT5fBg8X9qH7yLGunY/0MU7mq4FM3+zzNWZkvsEErvmcjppk0vmO0zVe1/Ttx23XGPRjcy/MvSMNW2/v3/x26G9x6+9feD3XXD+HabQ2U9jma+Mj3b/sYPxLS27yt0Pmu8aB31g3m+0w9j+G0bn5qSx8jo2+hqdlsy7pnHEwDIZs75A7+fCqCMXaLk7RpH/fH2dkYHybxhEq+49qBH/Z03POAKOazlr5Un96enNmaOnK3dRUiOU+i5aI0D0cDIOyXigUtGicqhtB4OKjBtdkbES1kUEdxcGq0x0ruGhEZAAbqRbNfHVB6esZSX8p4shyfM232QHm/hYHtr7pW7HRGInKwOakHzN9+EWrGypSOiosefSy806o5/bhnNAt+8j52D6o9J6jhsUGM5qqNPTJQxEr0nbZKhtGe08OHUPhfEb2fK8y1/74uvM5ajM1PkK+N7s0uHLmJkmbfQDikH3fn6yCGyB6AI02GJWoBON6rdFw2vj1OLC6DLbVcoWHDEAe3j/DqgMmEWz0YzIkhXsoHQ78Gug7VfTeCHdN34Q1wMGZP9i/5bpjrTESapcXzfVNu6a6thlJQHByDpGB4CAAB32657BGGwSIBWXwUdeLG8EXKNdpFWaiB58cVAz4Odb1ViwLGxI29F42tU6kqy7cV6sCafp71iY7BhCJmwBslBP4DT5qoHJt76quD3TgB03bJuOkT6jGkioGGq4hNoLow7I9CwtksEB+1vQd8CSjbaqepPNGMvFb2MlNioXFysyjQuQXjuKQ3/DZI6k3gnRAzaUT9VEbFwMric8VyT6AjfY8ANqHKu7MPpY+xD5C7SPhbOwjlA1tZEb6Gsi7fSC/cjRa/IaxX+Pwm30gv91+24MS3fiNXFQI0fnww9gWhvdNW/lF0UQmLaLgB2HUBp2PHQc+A3BwLoPxhAzUl9yRwfqxtembzfVB+j3Hwfp1+Tr1nc4Wzuxt3pLBukkNz/SW672cufl6hzXwQ/DutfVbxNqjKlkTreeaA/S69nHFQb3/C4+be2P5iC4DXGNh7W7TdzZ4owwEB4+Ge8RBfMj14uO5bMySAFazvur9gZ+nIFd5BzZgyQpaQ51GraN9ARAJLRnoBKwhTd8UMGGVJZi+KJCdNhlH1DxYoEEntjaGdTZvm6rpx405ctAi5ltN3zmwG3/ymxurow8WNimZ1Ye8B8udaVekYfQRO7wwIkYoXibB5XHnyGGIN2n6Bp1b4MMiHABu7OOQPbLb7WPNM+FzYx9LR6GLKH2laocNng9796L0oPpIf3CiDwjOmj7wcvhzGHc0D9QR8/6yt1xD8J33nmz6VjyrPjAGJQx1G9TqXWKo6U39kPedH9XwbGWAnyDn/b6wl7OnZbcuy2Cc4IBNYW34ZUjjWazdlMG4kgHgQB2v4kAbrR8/xf0I9jXnTzc4UP0+85CFYu2uDD7iel2laWUF6FgWQ+kIQAoS4IyMUaqSs7YmfP9PzecyBYiW9daxbqpzRewZ+DVPFbghtDdph9AHhhRKFl5J3wD6iuiaD0vtWMHBVLSYK34nibb4RYoDMrFgo8lgFOerzZH4hebriVoHXWJS13Qzqsl4bbapDyJi0VWVnP6m+YO7hY0QfdDCAYIRfSzMwvdqHgZ9tGAfle4fikA28pej0MTZFxM9UoDolJTfVzR9L/tI+8VjDmwe1h8Z+4C1cAPP1TEwUDvJjabWaPySTIFmcLgVbAE2h+IA/JBdV/TmsBFa7ahqIdoY6Rd0GcORgv5AZDDWGpP4btXAqHE+GBUZoB9aNFw016cMqLl+3SuMOzzThKp+Q4trTegNz+MUB2QLjRQX6PYqBldUQmjRhmdewwVqlBwqeWBvu2DhTAZGqM/LwFRyQAunOMBCShPgE1hrOAgjgw+6XhA0jfafLvRoL8V1zZaRUqLZ14EDzzf6Ijrf2riJPNPUOh5l11O+1nzBk8J2QT+9E/hSuRb46k3Vo8/nsgPH7wwz30l1aeASYzOf0DOi6SdpbPIz+mhimGCKJYM2X2pAh3Vq2tKW3P6Eoc9gxmY+zdaMHbjpptGHs4/ZcTDMuj2b3PC7YlJymsb5zOO+c/44bBx22eTXdTRu+LhJQdmeX0fzOIL7FiS3exDw0rrXv/V9UO5eX8O+gXoaGzHN18M2Ws8m1HyyV8m7dM7BQcf6mQF9t4/hbebmW9Fx8z9mu70GV1XO17hadzGseeVQHIzRcDBwII5vv+1rrKvJwCiyN1pTeH7BsL+6zodXG2Gy62PsNkEr+2usPYOD976eP54DxZt9jTPOiHBHIVnWyF2mN53VfAN8UI/abdQ2wtM3ewaBmXP9WCseVbGZctNVf9tl6ZOm6hV5S2bVfoy1crjXkviVaFh+la6qrtV80HAK67VGV6QJhWCcAiWZx7q9gjt54DCMxFmTsc7nbnYR7Bru8Rm5O03fiZPNsAELp61siZ7wninfcN+abg02iN+5gdAxSaNPsYHAmpyBO2yYqr0JHnSNaPpFmfYjCbcuJzr0BZ/Ik0oQbmgrVtFeHXpNyTEe9tRco70F2SQ+688TLXhVYSPIBun1I6Ij3+TeFNx+fKvheZQM2D42GO8gvzCGkkGrqjSdD+eePQ5O5I3/MY2TMLtC+kTyB3KZ1AJm6mucymCrc5c0CXPE+2BS6LeFgzsPWag/2Df6hwHqc1jr7+FCUbls4H2u5ytNMzIOWjpIEa7SHNwcZK3g0GY1FK/Nid+kfZQgTSWKjoMC9AFiRMdGJdxpaFnKxKMBaqqG9xENUPKiDy4CEWYikzOI86bqkgKW6JP1Y7MlfsFHZNxqSqWt8XPpaNv0vWKYddziSuuij6ZxdICgjyi9UFA2RR9JE24Scd1kDLJ3MjhruOem6o6NJgPBhg6jIwS0DypdMyap8TPpW/PNzi8GYo0+UPmEzTj5RfoEG2EwSQ33+AJW5BfsN7GxsQ/gd2dv7kGJ0hECIbycUxhsW5hca/N1rQu2CvTxpscN2bxZIL+sj5fIYN0sv6YgD497EUz3dWCrITJo9hFmXfWxZzbTZdAby69lULJvm8AGa8FyVv8C9tF8BPgDtMHzpm/047PjIIwMossgcr3Cmm/67mugPLZN33PmW8dL5wHN14W1CW8sXzhALCTWpsEaHMulP8KYImnp9sZyjg+5Xlhp6jTjxoE3qe8FgIB/owbblsmwZNLRY4GGb3HWPGvdog+MXzpibcNpYHCB/Br6+GCfnGtr+oYNbtf0zX1hyK9rsA2hz+gjg9ATfawN02WWEsHWJlGyR413WlDnqCPAC64Lmzs3YLLs19TagKkb2wAduaZvripVQFn0GX6n0sefRZ8+FNF7L9xTiQ4bpCPiV+gbaQJdH6AlDIS04hhil9Y+BBtb+wi2D1zj9M3hGCyf+Qi7WZRMnW1RNcE0xC45N3/QMv63bXg+k0HckEEP6LqTcL5knsgZafbrOgxtZBBBNu1wsOTdHljgH5Ne7sjg6QcMjM7PcIA2TX6csCY4yADh5Q8YjA3W7sjgZfa2W1dksMWayACDOLf3qH4/4HrhP9iLjB6ul7jXbA7uYJNxum0OKiJMBgOC5vlQfrANgHJqPo32INtcVGHT91ijJim2+A2ZT6L4pI/XTdAmSfum7xVYrWyE+nAOIXDcN5pusMRQVa+lIcyCRmYNlUWyjohnCforU4BBQBfkIeDAEVD4KoEB9KVWCRvoENg51E08QsRMBtfFpu/UBxn9SLAhNpi+EjXFzYMxqZEuPxBQTrOC/XJaE2iphyKYZU1kOFboD0WsgRlU1M2gDHnRMiXYCmMfQ+yDgil1uK7ZF2hXm4ZFpgKQ5i1dYkYx1LZ22AB9YBCFWCP/h+sqEFikElwO8YnrHoWqMJ3Rm1mjydyswe0KWlEB+kQGVLAqYbHsSb9GNUNksMGBBvsOu+SIkC5MNqXawesCG7q5DyODAXSRA+xB8nAyiO6H8N1L++b6pXPWr8Pa2GAtLNb6U+WKNa50p1D5kxV8LoNhZHAa1IoMdN13vF4eNCUD0xA/A1h83BkjWuNiLKUKosa1NHZN3+2XY3T6dm+WHjzpmIYUsy7EejBfl8tYjb1DJtSmybVr4C0jkhFxq+E+YjajMpI65nOyH6f/uUjuot+t0gZ2+ZmxK/a7Xthg0nRpP0rvOs7oIzdfWbfNZ2gxDfecheK6sqxbd0QHw05lbT81wqJAaT+ho8Vaqb05+98osFm3TOS3AktSh2n6Nvqwdi4Zf0QcTdXChmu+dvhzTmJsjNULVW65ezfBtllj3rj3WEM33h0OjAyu6NsEGk3n23vrC87Xx9mNPEYL8mw/0owuA+cPNy7WCMaa1lQsD4c1Y2s3MaQJ/hIg5/n3mutHeBxsfY6ZUOsLfbph+W33tvp93+tlbwSP4IJIgLCbk+KSMJ7ZooBa6XMTOOlbAjJihTHjGLhvqoaSoXQV1nwaoTt+5RpQAaD5ILqfRQvTR9Rn4KQZbJ21Rw/4dZ9f+oBqhD3+ggoUyt43Vgq/XQSbJuizpmos4WJ1a9HnsWHjkEYfVqhWUnbR9I1kCSNaXcVmVcVG3pqxtw/AZDU/nzQ3i45ssFlsQEansupZdwg2ArDBlQexj7hhHwlrWOPYCai6MQqyVQHAvpPiezjmCQhTJ4Jx0uybhTZ+AGJ/PII8SrV2CwTA5DEeedfjkblZwzd9q6ydbUXHsxQYH/brm6rdcTiBnGy6RvoYQ6oq4XClrHEluoHLrNLwDLKNiXj2OAgYl7LAqWk5chwNaw4HvuG5Yy3eAGuIAy56m0ZrwlCNY6JY9Zc4OMGaHoPG6DjABfX05j2vVxzPmaZqcO7kbLIkKGe2+dNZAQcvEausR2Vd2HvY4dLAbVN1NqDDxlHzmSZPwAHTN5JOCvyyLOobCFfk1+kTfpOEKfxC8AjBVm3ovMmSPsjpgD6m6CNCdLRo6k2j+bcB+hBshMogJmFjNB2B8zLYoKzVYKPTN6ICnC77MDry/LKO9GE/sg/EJJTK9YGAxGSWyrEXUOwD+QVsEL+Tlq0gwNkH6iOYlgBslKTEPsCpnz504PgF3F+/5Rp1dAMHDWtiW7CGa/ZF+cVOv7SwB8LuIRDEfWGcZjN2NMGvsQxUCLvG8mdksKaj45FuDN2m1W/ovjAD+NaG55B1FbuCA93HgbnXPGCwaNLG4xlyynEiA36b+MH3lIeB5jwK43wsvcw/ZTBDmq+PgafN14C1Kfa2afqOGCTzOzIYT8jg3N74KI5Pk47G92bT73+94t+eM03Va7NdDmFIkBQVSXJTF4K8LmywHSGbKJHCTd/qKFPoK+rPHiGT4WFWRYu0wBl6fxx9x3aVG/AoWsSo1z1sTK35YNMDGjpgsNdkJOAzo0EHjRmelT0EWFSlEvpS12W7Y4MN1lHNE4KNfLLrpOq12BT1Ar/FRf37cVJVkgy0dO7oK96wurTVxwq2kEDgk3sWTpoeI2jy3UMRXJ0w9hFd9tY+1udZQ7a1X49JfugA9Crz9dcLRLMZ23RrZW/65Xa6JFtlrJ3am8OQG0iYZJkyLQNowntnfoNlEA1rS5fB6wZjN598NM3XjTWCC2ze0W3mjgy83w25d2KrhLVGYMfaBgdxgoMrrJ3JQLEWL8DaeAHW4gJr064L/mB6HMQGB1ktn2f4O8HaS+xtza3JzDtcL6s0ZTqAzn0aIMOrBMZy3wyeYyDLx3xfwzAyLlKkBAxneI9hsElA2bAa4CpqrUdpFxFMQ54/U2A1crOm47MMrLCykVSXzHCTpcfKMXAKomsqcQnyqPmEeAxgV5+If5XAZAPhW/mF6VsyfQyY7cdAHwZRx99QD9js7pq+kQYql4Nn0wxqJE5mZIA/QB8os+VE4G8VMAXMh5osHKBgiut+rIKvEqiGZ7EPwUTzJfAdXyVASEP7yMBQ9CFBVGajsbEPJGgiHaN/H4suWKOLCmTAusJ1o63bhYDHwGmr8EOV1fotYa1gatcA6puOkDnf8CxyFixh4MdvNjcyECBoVQnXqGED7u2avkEGDmwBxpC646dDW/AxWAZTcIDVrGrCRwWKMjfGMLZ47j85a3h+DgdrP5iyRiWCYdeYQovHAQdMs5FCcr7Amgbnzkc8hzWRAfgLXGOLtcSQ8/M+ME0ZyP78HterG8Hd68zHGI+SHg88BCrRuwmMeqAS5s25pjy3AhAaNto6awPt9IUHivIrNNq3Ksew/ZF6Y0Y05iwOhrvf1/UN42Mz3zXidm8d7/MZfdiG++Hn0x+PMPOFmW+a+YxBDcPtWnfgfNEWocyK5NdlEB32XVTotWjKLgNHcp8v7DVuDLSt+sMZ5iWUH8NMU7W+5XqJqo0bPfF66PFaLuRUT8a5puphsDHGPfmFwUts3lh+a7rtuvdksN/sjAxkY2vzngUntL5/mqm90804J9tD7rCxeaO6U1zD2kbODgd9YOx+zIM0cc9hIoObOLi3bnCAizKQqfYyqLUGDsS/WeMY9t60wzCr6jJ4LvZx+Hvf61XHc3rTHTW0pm+TgW3BoOXa0e1kVWeGi0RX7Jpl2oumVixL7oAMBLijEHpkPAMT3QwApVBG6iVrKowRXT0A6GmUbbacveKx/sbCV0GTRC/o02wflEllbGi6Xbyb7Jz4lSSf6YNHZxM75pgHMYkBm+gIK1WkLg3Ag1lL+xCi9SWV26bvO/YRO/uY0ZB2ZR+L3xc2fe82s8nGkk6VG61Vpl+i4Vkz7Ollb2x/bNbYDOyYVJmGP45kOzrwuWnI7vKeDYAoAzIZlEFs8BcO49OB3NoMlTkTk9xc3/2uiI8wa2xVsLbDwWua6+/jIGhgr+Zglb/WmLCWh1XhoBmcSyA37yK7hTWZcJdoI5pahUplEM43OZvuMgCmxF8hDj4mcnpxpYkbbB+c4FFDe1FXGhKX5FRYmWktZUPRgIxgCS0RuoSKRgBNgOuokJpaS5l0c8fvQRM29C7jb2/OHbSKTAxNxpBAVdCFBj5izkYMCGswfVGHHLgxUH/ZZFpok0ccS8EGn7Lo9LkfLx3tm76pATgr/puKAYh012C7aMKyeG3eSBfqvI7imN+16WF8650ECSaCaGpN1aiPGIy/9f3MPvL7hX3gj67sg+z3xD4C/qj2QfwGzCukXGCo3mPWFoH6PeJ+yr0NdgEvzhZyEzB43j20wcO8DLpNb2RAejtk0Bnxtk++jofrGs0fwBq0Earilu2Mt5PB+brTKnPsZED+pWDf7OMm1rj5GrA2BQfQVE1Ym31fGJBor09tLH/cczKYl3IuewMZXGAN/9Hdia/mjj3WIjoORn4HrIV5wODQ51piynIpA1pjrTuJrI8InF74ygE4k7VN1ZDVwwYHnHImHeX3Tpu+IdDQpu+WZWB1qdGH8wktTgewcfSm6sqot03G+dmzYdnOMxMtUbljr8lCA8eX/AYEDabxTpiDz36rYov7Td+1USu/Qt9Qfo0+TInLNpeupu9Afl3VCxZD+oKx0fASB7+CDQo8c56yj4jY28f6FPsIZx8i++uHIgjkTN9cn44+ZW14OBOEjD5ItmbDRB0BfftGXJEzJVAncNYAQdZg0fcG/k5L4aVh0uk8DMZJRYDTebbuuQxUzkzeyOTl/C3XUT5WHYL4jSn30hcaHHzJhud4Adaum77dgxyN6M26XQaEtck40A3J4eAu1kKw9qb2ZnXuHu6I7ou3WFNYeRw02edfN1WOL3i9sNLUj5uqSbs3fdPR0VnT97L03KyhhLlw1HeJpaYc1wKrRVfSF8d8GFUTO8fHyL/vm6qP4Ws+2uUjEHg1X+8koQy0i8oIC/YtbPo+iOGm6kMGOeHEHwf9VP+cuuRNoOhzPx5FU/IOfwM95BumwcByPgmY8CWH9CbtDJig6RuyyMqMAIukg9nESw8dgI5AMIAd1Aca/ZqvKjjU5N6cf5zbx+I86YOHDpIUw0ij6bmmb9IJqcjbB/LbZYo2w1lu2v6mqZqI0WoHQlE2Yw2YOMgLuOeEbnQk+mgVEFrXrzFhDdf0nes236QB9r65vsiTNUS/KFqSwTJMkcHA5QUaOxxQULECdpSBNFVT0gXzOazRQyWENQmcCWulo4bxGzjwgV/5ScWB5kVnOOCgkelzAc5l03fCymHt2aZvvwbTIkFydBk0rJHOOw7Ylzhi3+96dSP4o+m7BLmkkQEMDZb/xjIGyq2tMs2br4cZFaENgxJe1P0bAep0DZ21EtHiVSeB1uj3xuZn2+oSzddl7N5kvAKLJiy9NcLMZ4g8a/oeMp/yu6xMcG/lMHWJjT76+WWfbyRBu+kfwzY22OezKDXzDTvbraZvQ6B96GAaup19zH5/2/SNt82QiKUP5cPJwIlgoyMLwM2EU397vS4er+O4YX+sdm7WutlUnWvIuMbyEryHzSnDd5uqH/8ywbU/iI0vmfaew5UR6Z2b9p4kVce4+dLpNmvcp8UNu5AB+nWyrRtEDy+D0zXo9iWgTq5hfeWm1tDpc3HApb8a93HwztcL/8HeG03fWIrzKXOWKrOyBAKhrJf8Uj9qqOpGpGfy0W5lKysDyynwagEaVqpg1enKnPbHTQYST1cRxItK6OsZif93izbNtC5KdSQHlpir5Mr0ASfJZ6u5UuVwYaNlZagPqiZ2HeELAYsN924fwAYK1VVKTTbYcprTm1jGvvFQxAYbZyrXY4AcnZDYZKtYSlgVOTpW2D8UQVfTB1YwBixx3hB7djRw3fRdE7pAkGUFvYyjy76fSBj/4tZQGYR50EQqgfUT93DCJoNuKgCi4VjENtevFQCL/i3XOrWz6c7IND/eNzyT2roMzvYK44utP6V1VW2bpm90dg5EyvATWEMcGDZy/C0ZBP/47KGmLoO+R53aecrD+A3kBPduhzVj03b/aP5KheWfziwi3vd6vtI0QTBnTd/od66aWqVsn26enCJ6ax6ZJdqBYKxNpeYL/0h0wHRRgdVpk3HSJ1RjSTWdQ2SJMblI4DO47zd975qqBxuubaoGGTiSiV8M6C6avoGuCOR3dn6zfN6zR61A7t6kvWhihzEFWLDY0gfQhOLdN1U3xdHN86bqE/tIOF/YB/Jr6SMQQYkbNwngd/Ub3HooYkRXkdoHNvp3+7UPSpDNhG/6drg3erOyIlt9TcMzOHoiuWjSXplm07BGras4jYaN8YQMZoRd90wG8awMjI9wOJgbHKxfpwwMDnZHcs3enD9d9G1ljwH+uQwy0KDm6+ewtt6GvQKNGVEN3nPdm+Yt17PkAThYTdW1rm8s7zI4dkLQ6zz+jwS4QK5YS7o4pmkyCPPAEb1nrzfXp+JMcz23KhxYW282TzJtJPVFr6crTQOk1RrqNGptColYyT/64sw8Au8piMgMa6Q6ouBNthcYNkKmxBKc2HII2QR93KOsRbJSYY4c9BLLChQpwH6+6Tv5zaBmn8Enn2NckQwb64k+0lMZfYTHRtNHKF56UOvepI2BWM2zaaKUjDHpM8NYRzNJ6vRxVSkSG9EcG+kodBGlT1Qu2KDslXr3ItApkj6yuuTo059e6EM3H5yn6dc15usa7h7IdxpcAbual2FF5fot177pu/kr1NVOBmGqdwtDG1vVRfrDMQZrRs7dfjmI28v+eRlwZaPjwOJK1jjDQV+XZXDrAYMJMgB/4HBAiZTBWvOTDmsvkIHFfZStOhwo1uyeYn3EOF/X+bVxH2vzBtbu29vu4Q4jgw8ImCJe2dOUJTgIhDhTwEhx/R19OhQnIVqtjahFEBWRr79RE2C9WXopds3g+kOWQoqSoCzyCGjBOeB8ELylgicbIdGH8wXQN4A+DyL4C1RylL5VORgELt70ZpFMvNdaVaiApuo0CEwzogImpEkCq1XRWBgBSclGRHChYMo1VVfwE5EBWgKrsJE0AYbUX2SQAvJuhitEV5aj5f4KnlzTbTmMCM6kwnwHfeSGKfxq1IPBIwS/tXFgEFpEa/+lXgPWwGPoNV+jOXFT9Lm3nTMOhg8kKWCvWyuTJmyIA2eHW2tMnKQUYmWASTjrfJINDuGHZEB6i2C7FBk4UKReRQbor5YMpOF5+QbVeTNCzJKMWHQNPlrya5zhgGxhw/q+4bnj4Cyg43XbIrSGw5qqo1VUYm3k5esC6TJ45oDYyIBoClqj+TCR87bp+/Q1HrDe9kEOjwNtC2EcDN7fcEIYOTZYszgYj0reR1yvbgSPiKP5+AYDEgeNfivCCsNElCPapibhVN7cFZf6fHprGPpGn89lB26+Gb230tFnjhB3Td/t/giVABfqkL4mgul6qik8yZuzL6EEPuyiLzQub2DQh/M5SjYNxaqPvkQF8iTTDX0qUtMk+0ggRAau6dbxa3TknMKYx33n/HE+jIqRPqOjew9FGD3aNbze7ujcNVVDSbL/VjYxd2+0+WafL8wajs7pbbDrvKvkgQMVqlnT/thhzZBqdXTvoQM/4f01LK5euMbDvXSG5266Cxzs1+0BxDTj+rrOp+383I29bHO7NdfHBgfWD+2E9TIZtFtbHNxbw417SvZzm9998euF72kCBtLPmXAcnBEWjqqUCmxfNRnjRC1zqQAHpe2zd7nmGs6ZKZb317qXTd9YJ270maQWADUsuGJz/DWLXyjr26ZqFTrcIhFQdvS42yq4Wd3AgbPpvL9/acC8MJ9uGhsd+X/UVjJdwEZXuqNPijTIY9LnqgGgzazI9aZM0sHSkcFGV4QcNaA+YFziZYh9mApUy8SxWiaV8v2GWr/ev+VaKNk2X+M9xYGr4B7rAn01qr97qFWgYoM/s4aTQSECdG5sUNkovQkOcBH8Uftxx7PDxjPN9cPh2ZZVeFxhCCoK8f9v7+t+vcuSsqrO2z3TM8wwPTOM8+nMhGamaXBACKLyJQRQo0YNGj8SRIkJUbn2L/HCxIQYbkxMvDAqMfFCjSZeEa5ERxF0BCJoQCJGZnq63+XF+a1Vz1P11N779zvnfd8m2euiz+l91l5V66ln1apVu/Z+K+8Lxc3AdzIPOv7j/4zR+ZfM+v3i+qteMLgSgxZn8vPCFyseLAjGLteKjzjIg2sxQN5djQHot5/Cy4mv4EHxYerk/xza1ZmmlXjzeOyiehAug08e6NjoGfVCy8XNl40SUofT8eEjAsw29sWlKMLXIzku+h6g31ibY9yMjm1OfavoOzDAx19av8vda7Ptir5nDDOtolK9g1WGP4V+tah6bVLZHiPZY+nEwVb+kvbSTwFDEIQNqD4gFVUb2CVzo0K6X/RNTiJxAy+Wom96KSIc+ArEC12UfjSNCELWfFG/ADWCxhBCL0UAF/NLEbR+17Jo1gfOV/FvrRnmUFf4nnEuIAzBq1G5gTK4EJexl/gtuQkDsUCuxWBeDLkVAymDgFG+DtYqcCMX1+Pj+ky2ofisOFmWKqxBCpi2MVhyj2JAa1+8xKC4NtcM+IPyiLzjGthX8cAty81cmwHEXPPBtSi+DgzwEaGM1+HAVbi2uA0YjOQjxoBC6+ABcWEOIr52zl82vwwxwm8sHozwxb7ksgxZ9I0DanO0PMjF9Tnmfl7t+kJwmKkuqsaIExw0/RUL75wWBm0Cq2Ico1oLh2Qz4oyfbIikHxWvTP1gg5uByUD92Iic9cJJdvpZSQjgRk6wwYcXzVLAhqeHwbqUzMYaz4hZHMAoXQCDaaNpDzr58qneTGWVnFRBWzEwGYKLsyPsUyEp2RwzcGm+y4S66Jv0E0XfpQgVTr5jgxtko0SXYg+muLAHODRUcHGC5Rb+CW5062MF3ZSlghM/yJAvMRS7JRlys6i8MjmPCPLkCxCJYzWblfBrsh05w9CtwZK96+zWYGAJg3EUAwwKk4xi80pywaGEgfLZGYPBvFI8yAtOvgBxkGvXYIB2KxhMvRIPcvE1uGDiVcl4K641OCt71GzW9Vy7+SWLhgeMc+UBBjDXco0nzr/m4vpjPufFtNtqmoa+TNG5AT8DydURh6Cibw8h+BiGxxvUD8E3Swen5ADvL+F4LBeLvucfYrwB1kpZpbmYk9w41V9+WbpiiG2x+FJA5/HHdWqIU6SDzmnO2Qdb3iOc9CL8aJ5hTMxsuIXzQvRLEaAJ57DMFhjgSQYFU9G3T12z4ws7TD6wfpUbuFmUjaPoNwNEzGZNW8KJdtkajmZoapyZR9LOBDcGdFyPKOKi4fq4D7BtZbtWsA/cwFtHu36zw+2LvpcECAZJ53XKzUKszINSGxc0w8cKboA9OLhNjr61b5aHf+GNtyt4ztMo6wgCaz13JgLKiPUm+GINzsi/Qja0KdtX9euK6wkDxasNHlRdrOiiZGgfpl4CAQxMYECy0Na6qFoXX9fHwHptJZzb4voU5BWueeFalD2kx6KpqLrnGuvXFb4XDERgH0GtJZvbLtf8MNcwe2xFrrTxM243/zMqm38Vk1mBlLpYeqrx+O5ZL7k73qjXhqj2lYWaM6ChzRmvg3751skv5TCygorcAhWXz3AF0NvmuYhQL2yqiXSs9NLtUPQvbVQVvk/N5n5upWpZCRY2l/qpx8tSPy/X3dnpBVbCHgqDMg1hj0LwZkCv16UptuxTNrE63xWNZp3TwUSoI+SLSFIWVeu1Wq919lVEEHqJtV+XZe2ohpMLYWcD52t+oJsrlRt3qni6r99m0fehtXAbBhJndau59jmH5Lj026NMQ3Ct49ADMNBcU8ON3X77a29LrurGF4ddI1cHAnXfrv1cXrto8AKCpdluKwRvdsf8lYAVsdplovP3UvQdp9nYQGsRIKbp6N6cGGlIk2uwSjZnjbdT9H0JnMrjFuuKQZnwCw86QliN5Cm7gVjVk9ASnFOf+RQlsdoqqsYULhsYv03DthSx4qgX88nwXj+N/dIPM3JpIoTuiFOZ4kaxkSj6xsdf8Q0eUdQKPCTbiFgOpmFyGpeeWGsSNRdsYFwfeALXxdcVg9yIf5dNgE72Dhz3JYB1hn6W+rECmIbTa2v1WgekriA27q32HQm/jghg88J7wIBwzsPpgtg+65PWluAzn7BN8y+vwYUjMs/r4ke/gTwYOquyXVyP9Ue3YtDjXDAgmzvplKGcPAh5wo9nqBbXRtIF58Y/KVv2wrhWnIlydoUHWy9yqG+RkYiRMFBca4Is8rE4XxMY2PZwz6vd/MkBiviWvZyCQHa4ToEGpzET2XDxQZq6FHlaBGq15jERdaB+90qHfpEW4pqVOTn+LovBr/ckwfnC5rj0qkXVtPHToh+gH3wHZEXoY2HB2Fts/Gvq4Ngc7AEKRkpdY68wcNDFZzAKGFjCgOYrbFQKe0tRa9Ivf9QxcRK6lew4PUJYHVG/ZCODws/0TRK0AxVVAzfKfAeJBeeQ7NEW3Kci2VSA7la5sb0+EgZThoWtV7GvWtOFQyhEBO7dOge7GcjQRd8ccJZUfbavCSKgPYxfAqkvXsQjOcJAraMDj+TatQWP+vcwoBP7QQx0wTOvQTPEGQqeE6/422GMs/RNST9dXG/Cvo/4gsEG1+yyFgsGVPB8WedYguC54Bm4lr/DNpgLUXwtuAaP5RbXRuUaF19fRAj7agzGIa5x4fu9jehpzaX/SDy4/xnJATRLUDH5WOTB+h0DSYwj7IW0mz85MHC1LpKnZ4+Xjr5uUEXf9z1jvBrZR6+8walof+rHmRzWD3QZGCCwE6ETQAr366ang/i1kduc7zT6ZNEcZTqn7SI7/No5Ah2bWGC/nN1IuiS5ufCdHG4+ZSxbdfqZ0dSWfryhusVGtPWVdba50g/sAdmljhsz2PIEjPzysPzUQdigwyBMk/ki1gdxw/r1MX/urQ/BjYyBGawPwXEcLzJsaN9UhCqyHXNKfOm6gmc8JOiCZzE3wSFNBC2j6tLJfbyi7yJ3AF+mrTL/8tSILhBo5zVT/IbGwG/AwBoe5CcQi8e4tkzxT3BtA2fFg1u5toUBicgYtFzrefA4Rd+aByuTI3iAfnKLa8XfZ0d+JQacQao8mBxSPFhrZrj9rvnkwMIA8RiR5JhGx4500IIVdN8Nf58bOY6Hj/IG2T9HmiVdebFSDnB8HQpSVonGuzheWnuxFeIpd06Ds14lclr9ouDPYDx8tdRtZS8sFgtiQBLqAT/p5wG95Sh9sH4YRF0GRjtgsTsVfWcFQG6cKAzGAydB4+VHFQMwm51zoMFZpWWPGCELDsxwgwHu4L/dt/BLzpUi0myDZH5aH6g9rg/KQOB/89uDEHACN0pxbtwidEISJRkVqnUz6eyTT2nySqAhzuStaSUEVtUeNB1PfC74CRuxKtrmmVeJS3hAQbl9wXOJ2PlQ4OCTcBrwtyxD6ZJlcLBgYF/Wjw6gmFEhXlnhVZGb0wl7PMgHsjwNa3De4AEDqHmQ1+jY4AG/3GFXyK1Tr4/Seh5wQMcY+AO5lnnQBYj1EJl4gHP3RMp8QG4wGA0GJvTbXW/Psd0WNGWeZOVHwnF2zEW8q6BzUDda8DieIkqSa25JvyE6+n2gV+aU5E4dUb8Gj0NfdE9zvWiixzvCiDTXTf2KjZRcr+OJ4lw9XhXefRW9KOkbX1l3HK8O6MJk5gKHYvAOAq/jmbCHuFcyTRqkKfre73UJ5BMGSh1xcSjsm6Lqeo1rKO6vqZcnTNpXXiuXquCuIPYIfubHFkhfdKvk+oGOZkcHHLIbT1AVfV8j4xAGimtiSJd4eaOP7fbThdZV8HPB4DDXxAAND4YYsNq849/+Wng413KQx/eOZrh2oxGtumfFNSFXjoaHvSOb7uO36x/PXXQuhWOOE43oNBdVxy4HtSH0KGReUkWeHkOINr8hMrMB+VEIvzKeI/5sFPjUgHwUEhjorCQGfeqEmB7FWWCwuql0qDnMsVzS+qE98ml/Hpk82WPpB/ZIqXdV9A3pFAAG0r/LlrZT9G28YpONBuhE/EunVaKcgV6rX3ARMxpt0Xd+/EAZm2Tydn2gKv36QKV31wfpl4WgYmEPSzhjNhYPPgHVkDbqi33rAqmZkZTRwoyr4lqB/sijOK1f/0XrZp1P/WY2VnCj4j0KAfOjfjBBYGDXYWAHMFAZ4RYDsm+Cjzgr1mriGvFZcQ3mnnlgzxCDkNfzoFAIeUBZvQ2umcFLG8yDR+Pa4fV28AWDhfM2BraFQeIB7XmDuXabz2kCgWfcrs80jVA61b5SKg29YVdUvQpO6VEIjhePHHAP6SL1dQgfYQj55VzsiMHbZfQI9ngNyCLFkt3KxZG2shdvplnyAABAHElEQVR7Xx3HTTvYkTAwnCMGBrEYin7p5q7ou/3quEEQIB51kDMeOF+lH3zFV3CDUq/TDtMuNN4Muubv7ISBHLFJpSC0zHfk4tdccHqxR07Bg06Yit5cH+CBNteHJ/221se0RzYR8DDX7CVVNIdA56FshDfDRV3wHDYlbsD6UGthNHPT+Jl4TAJrEDDoCsu3MLAtDNTaL7a0ir3l9VH5R49Hity8poOvsfQ1D/aK6+nxyA4GfgUG+Sv1igfmrn2O4vhBrtkw+pJ2u7ZGkuMHCp5315sqfB8t13C9cfE1/IQ9j3iAvlMVfZsorl97Ttie/PvEwNL+AfcSBmq9mRPvltUSBihjYZBkvIiw6bZM0zJ2PsCjw1KgGm1ii6jqhLewcpYN9pv/E18KNhgPn0vrIuPl3C3pBz9pIc1T4tTPgojRuPAdHUs4CSyqxixLmu/MHBgDjYSO2GK/6Ht6m+5L2kU/z/MV9qgHKJgv2GMWdG4UfU9CFb5cBu4WF803c5UwmOPMsyxmldBxcGCVhCQbxZ9LYaVaH7mj4OSq1dks+jbJDbRVtQePZwm/egKt+vVFqCN+Jl5Fv74Q15N+pCfxz2g86V+K3IQBnfAFx8lEFxlpzVRuwNzl2orxFAa2gUGBuTrAsgjLiyuGfjI4XrIdAud2rQoejA0eqEzOtRhYw4Pn9oKB4IEV/3zxL2n9Mtcgy5J9th1Zb/CzYIDXEgYWh8394mvNNd/h2nGfM+dmggc7XDObIdRzb7cXgkOUHheVE4EFR5vsDCqwF7zOnt5+Q4NM+TEeyMWT6uwOm3XJayJR4WTCxoFNZV4bQqmJAV7Bom+f+sFmUcYbeHMNFPHPPs8RvAhjPHUzLP6lHw+Mr9cu/LIhEMoB9gAdpo5RVG1pPBhkcqLYoBawQrfAj+bpwB20Bzr/qR4XfsZ4yfknoxd/CjOnrNfClDrGRPBUTPMdSw4VpoKNJFFRP7QN6DoSx92TzmA3DDJjHfU444COSi1dACsR/PIhA6DK+OWTPv49wTztTDZPvHKQUXVhDCxj78byQb/wdcB22PQCPl1c33KIDIzgelXFAmdAvwT2EQ9oHrAttT/wHR4E147KrTKqv9U8UPZVPOi4pnhgGzzwXa6NpEsnd0T8bRmsyjXMlqPf2OIBejLlS6S/yhgU3xV78aGXLLJ51yGdS0Uk115guzlo4slaKtJWVjYrRdU+cwPc93BRdcFSXexSeKkvOBy6JG7zI0abQWLRz5JcN894pbhuKZPHk/1E9ksU+66UDd3qVW9x61YwmyEQK6MZL58i6oQ73Ot4lUBtUbUYTRZ9K6ei5itsVMQIbgz1NWwX1+R4Qj/BZ6WgS7spG3UEPICplFHJq+S65F9HNiVXYJouPwwDUzcfgeCyfusarOtXDKDWdLPOh+TVQ3C+EYNmOD/Ag6MyerkNDx4Rg3Hg3qMYSBmy+bEvmwvh+YvqmMnfBcY11+rc9jEQy2ADrAOQPON2+3eajB81rEhaRKI2I8h1iuJol7JWK/EgTo0XEZSJmro4phvNuiLjEhFcLManCo4L5t5fDpKk1Pw1n0yhPmadOPui7+LN53yzyoapz0i5sn75hOigX54vFuOJQki0x0iqAvZkDxRbTkJwctnOi/dF1ekUpcxrwprq+0v0leGpXxGiV2zohydJCNMwu1pOxKD05GJ5ZNK8FCHni9eAiyorWTDdfxS3V/SdeVXT9ih36LVw6VjtK/yL8riES2TLtM/J5j3yOHIbA+xXfJ0nRgIX9VeuE4fw7py2gj/zBh480AXPxzCwAxiMazCAyW0Vffc4b/OA/QZzDXnQce0xMOD19sgYJB5Qjgl48CCuyUxutW/OgD+0uP7Yensx7QHfaUqFgQu5Fa/G5GfB7gTGYlNZd6RAiIUFSCv951BUDUEXEVQUGa+U6nIOtlLIy/0soyO5vSRNyOroXNui6q2i79AJE1JFZUMCYkCni75jEA9HQPMddb4rI9ykxxFSsAEVuY9kj5VyTfYYyR6gE8JbCjUNFisbji5uF1WnwuMCtJVMmTB5zJf4LNbHiiTT+sD5Qu1XWR+WhZhIrPqyC6Xtm0JX+aLEpSd97TyDoHA+ihWt1Yo9PR7JRJi8AdyMVaFAB2uSKsdz0e2UyzIsYw8yytpX3C002MfADmPQ48zrsnuZgP3GwqD4TrUWeh6UZanWB8nFAH8bA78Cgw5n3raaFzRsRNH3mvsw/sp15hrwYPlWsL1VHuwVPBPJiwzkOyyFjIEJri1uBwbDEtfGMIOvna/DH5YqTJ8z8h4w0pfNL7eNhaTNQ2L+onr+2vni2mCuvYjY6YZMU5CITj4rIuXIFB2RGwQ4hlEoAKMaHSggksVNz8w2i4yDHXS8RsIss02HSgG2euw14KcbLvpSZIeZJnV6XVD6nsqwsSJuwh74xUdhj3VvyWxY6A5mp59oD5s/65sh023PjWvz1LI4oQvQOcE1M514cVi+uD6GJ7BXNkpCLBudTJ64wafX9BYXBbCon8EmlfXLtyr9EL5ag9MXHkMg1nDyIUXfqCoXvw69FgD7hWkFepIuyT2GwW7hscVaoAmXa3jAE7YEqKZrwBM3HqT2cPaEc+Gk9BHXY3Ass5blMgaP8oJBWYOVByMUKJQ4yrUtDOwGDPa/bJ5d+/QRdY+q+0K/3jLOigd7XPPDXDvwksUm1/Z5YM1aqDWmM8h7/u32miacvV0mA6c6mC9NLUfd2zLmDxwvOa9FChwPgjfliKCfJ1m9fppEhv1S0Tf+To+v1q8Db4bTC84dZg4hO39DKmm7Ij8PnWi8SW5bCxIPkXUjAhOOZI+8Ua7iYbYRBdUYTGR7iGmYWRov2SEp7QvA+tiHvrK+bJ4XpDEgwneyfqqIF9fHBBgNDPOFR9wRhOpbsz4JfApM3SKDSN0WbxKHkKeeeRAckmtKyNAFsamwHE+7JDeDnjcO/hNYZGU7MgY4H84woN0s2QgwSMFZYkLlhsJgo7i+2DwTD7MdIITViiwqrvMBJ/4sg3igZJS5h6xqX82DyjXNg4p55YF3PCi6bHAtZTsyh4o/yBiArPizwMCUvxIYmMCA5g3yNorrFQ8eg2suuTavVY4X9ydseaS4XgVv9zV59/26PMuzbDcETTm+c5PkIuAnodKXdLx0082rmMhYYT9vxis3y0uloE7pp6I993LNh9twfikSHxeU8ZTDSCLGSMh7Dk9mRzH9NOF7cnuxZBF9kJSy4M+8GW9/UBfKtPrli+or142Nit5yPKGL0m+YuYtFL/Xj6y4GVLdqp6rw88IFb/odk3EUhBp062LQpuC+djw0X9VceFVVSH+8+Froo3ilYHkOGHT2Pcargzir9eteXc5hrl30uypIvR4DP4JBR6wDNnFzk6aEayvvLvePA35I4PwQDB603gQPjhTXzyC65cEV+r2AeMnMHlAIrh417BYZr37iANGIqKffFD2LNCcVfedwV+pHT9ga/dQpL5+YvOiHj79ivOQV0BmnmGdlvlLBfTnsr+wGpjmTPQzSpoN1UU9gOkfGWTOV/s0Zj+BGNXrSL6exncWHfupkCqf4lZFr0tOAfRRVb5By0knqJ4q+yykKOAmGLWlszJalTPl2wBRcLAWY5dFA2I1tlHhaeJBASLyyApkquNdrQa63Q49HdjAYIFfYaPGU5o42SnhTMXo+OVduHHs88nAMQi7XUBIPGhm7Bc8ND4biwc1cEwudjUU4X4PBcZybBbfBA/qXExLXBgw9Gq5dV/iuMcC5PzoGICOvN8yWdT6Hp6F5ULK2hWtGPmfendM3z6s94JMDEF2stKmv1OGcXjgOMCgEATEcEGbZy1f6b+tL2pFWdtZrpvow0JBF3xERR42JNfr5Muxu0fdyLGq+xvpBDMD6paJqSqkTWEGsFLgUe4xkD4PUcAaGVA4bUO1NKqqm1CtGoSllhwGg52kELOAklH5xsRR9r+9DZf3SfCly1iaPacyi7yigJifGJCdOyqJvmw4V52tRM4MXCyWzPXShay2INVo7JWDPOCcQZMFz5sYFo/oCBGMv8VtymZO0l/ltGMyLIXcfA9/CQK1V4EbLP+H/huKz4mRZqlnuRtG3wFlhcBTnun73udauQUs4r0c/mgduQq6pgmfBNRMYwOB5HycMTHBtcVvpEhhw0beVguc1yKg8mEXVxIOR7DsMvnYOLxzhYznPxddT7iA7rPiG1NtabxUDtd74i+rGE5HrDX37MLUGnme7rRAcd5rl3FVRNTjPEsCm6ebiFVhUVFA8NxpZVE03w8+q35xJ3s9xI6cp4xcVDRd/U1S9VfQdLKdrKZdFupRC69UzBSYwu0E/WRfCAGzFwCQTzTNMKbgPrbmoWp9aZr8VAPbd4oSSuEELzjBA9U1u0Cm3gAD6QcyjuYE2V0WUbI8V8Lqwh7FcyZcSwUYt2/aXh23xZav4mg76RMB6Ai3rqKzVjmuAfbZvNnA5gUIMShyqa3BkuZ3dJM55w1S1Fz0GvodBK7dyqMuosFtr/FCHwQIyxpYvQCQeHOUa/0sMer4PecEAeYC8Khll4Bq7Dc01b3BWPLj6BQM53+sxYK5VHmAA02OvuUY/Gwx8gwfe+Bzb9DmehM1fj2PwuyrTRI9hIpi3FUGX39UgON68xBsr9xsEXFnhZbztou/5+zrh5Q7uK8CJ07Mtg8YjqOhHp0ha63AtxzcJg6wLHzZHITfrUjEIuXDaaOxQoazOLvpdFtDqhr8PMd4AqNTbiPDD8fcSvRE3YjyIcGi8kcYLLArFLAImGYdDELoCNAzADNbFcl6R3UP9ZBF0jpwV9umkv2SIYD87m3oYgclnEPKJ4qIYxQ8WJ8uwh8gmAPatfWmdV5100a3A2RSmBwqe88KYAbHlCQ/Nl0YGF+JmGYh3xr7264rrMw8KrwoPUuH7Dg/2uFYyDDYxj4wKWLf6nIzBXEeuumke7BVVj0aG7VxSPNjjGt6reGCKB+LeLa5lHuSFef1LFmwGT2tvbPCAeVVl9IX+Si7GFMCDDJ9rGj3r9uAvgt/XtLI3cKu8WBnXzmnQeHzzLJ7j8XwRlwZLN+vxLrokgyku1/k2Xy0evGjX47ksWAiQ4xljpTBdLOOLJYBSc9PjmWRh1a/aI4qvUWkB/qgDLm7I8Xb0m/3SAs9ONIqvE6h7k53jqX670adVonUwH139JcCYm4iXbtJuBfxjGCitXfR1VYSf4nwzk5kkE19FV3wx9/rF44MY6F14A+dyzQ90O/plcwXgMf26wvIWgxII5WuPjIH5YUrXAfwQL3XxNb/cMWnmRwxyEIMjXJsB5KF13vBAqax1UXLVOr+Na5youA4DufCPYiA6OvzyIgIms4d8ETxVemGajqLEnBgpzLKI0GHTjVTvCq3hUQhGux4DrfHiUUjVz0I/iqhnHgE6jBy1g1w86Q4DXepJCCYE4xlZfQZJnjDIpy0uqsb0Je8uM10q0+LGcsvGRAFM4NJ9Zb0UOIqib0J3ps0bbiwbrGkOod9UesR46ySU5xvBZVfoGhmocLRBIeZGQAB4pLQUfnYAT+CFG936yLHDUDJiXCMZebyuGDQRkOSCPGHLRec1TXgBAh6LMPZZxOD1u7ioA6fuMdlDMDCJgVhbWxgYYLCDsyucTawZ9GeJB/kx1BgJA8UrExjYbRgwnx+AAfDAGh7kJLsd5poXWWst906HoFcYPM/1htnBDmfFA7IvTRcemW1wbeVg1+SuwWDcsN7mnUNyrcdgP8nxLNrNnxzAou85YUwNY2BQax4TUddmO4kvCggt16zMSBc3LhzPkn4AOgZq1kXRFkeUpdcA/aDIbs03pWHBwFTdbLHAHbDCQu/QCwvqjLBXGDjokjNx5fGIw3wbG/kFg9BvgH6J5BjUyqLq9EXm1I0eISD2XpXORd/rmyTy8ddAqDgwxvnyNMwNgz14rk7H1/SYFu1BBfdQ63F4fUwZdb5URB5QhUMDu4WNYM11PLA0N+CVQ791onVeq3ytyij2pc2i6pJfOqgvXsRjkmUFtY7cTb6MobAfjS1pGk3Rt7LvAQz8Cgy64nrkgVpHsWbzWlA8AK4JHuSDQC363uaabXGN/nyZtwkMTLxgQPJqcf1a3Ckh3vEgvnINxfVDcG1Uro30qADqsUFG3Ms4D8Jgf70FBgM/e3LpH8XXMGEqvk7mUDyA7z6tom8K2KvP4S+bp7UH9p33Mg8EBsYY5Pj7ebSrM024ieJJoHxVOdsI2go0IONTir7FBiyLvnETo/GSfhzEg178zJg2GNBlFcBZr8sKhFIKKU4t61IEWCPpgnJXoMYd8ylIF1U7/ZxyaWpLP87k+LTR+qm/ss5F1Uo/HA9sZZobK9CNG3p7iALgYg8MurI9MCtH/FPcGDS2JwBjvOhXMiDIjQ0MFuYoQ603KSPw2/7KtZW1YHAoobmNLDevVcae8UsyBIc0EbQMhYGWe7zo25J+JaMs5aZDIspQ9iW6QKCd1wwREH1E4pVdj4E1GKyYQvBg/yvXN3ItB8uIwQGuFd4rX7eBge1hADx4nKLvKlZxDXmQi+szD8guDf/WIftiqyMYsH/pfSzTuXkZSPCg45rtcK2stxcSLt236zNNEcwbH1V405GRO/5+sdI6tRh4mLlp4unQWQkPNGGTBYdGwi1Su3mFLLLh707zzAVwePsoE4UfXrrDCSXdcPmdRxusH/33Hm8eb/C9phzC/IFBTSiKJ6hq+KagLxcrFv24kI/xE8AMxG+wrm7xmFB8FZWLLSM4Lz4bxwtRyZZcOIuvb9F/aYNGsckenkRU9S9juFg/2uZoX84wAB5NgBDXxCZ2ubtgNZg75hBg07VsX8xSJhvRROc0hc1hRGl+WN+ki+KsIkI+FEBwRLoYbxwY2LNchXneKCvO9RQemxhlVAxkABb50CIXQeYB9OODkcCgkTEExyUGDQ9UN/m1aUtZpcK1xs8f4NrsV4q+F/bZvnzvkYLnozxArmUeZBmdn1ccz3yZ44YqoujbxDqivyYe7DR+cpO4lvrlgwIGci+i3fh4DidlVnz8CnwKUipeKWCWW10M6H5Ja47t8dzMh+1DPAlCBe0uusHr7VsTnreKS0W/sp67iVjVzysG3YYibUH6eekXBfdwURZVV8HrI9LJ5tq+St/ENRVMmCq4n9zYbi5t5Mf0EwZ2wVO5FBImC/tiJ2HfIe4Vpzr5tXNxry649zJnvbYOfmm5W5gVBCnDbFuXGUDW4tdjMjr9hh3FII27FaTejEHthldjqYmFvkXfjX7yi+rp3rmpuxArefWYGLiehkkeHIBFytD8K9i7N7ocw8Al1/I1/v/1SDbpchgDoaLc8xIPFtfg4LXCHsn9fE30Q5/jcUnuR/Zi2/WF4B7nPX4U5yING79ixqim2maEGZsuPw5KAzq8ht88ClnZF5mVxGMZp39Dv5ye3ikyjpvliRO3vhn75AxFjrzXkQkj63niNIcnWDtF3xi8LP3SfKeNVuyzVfRtsVOBDcge82Qwwjby6QgGglPZFBtR/diytS5qpcCqLGoweeqWs3V+6VgfJUHG7dIzinMN9GNuqOJc3nziFEeFx5CqZkxTDDSGtFEfOAErky2BRJzRWr8f/cqwSQ7pjoxLX3Dqjd3u56T8BvopxiJn1+oLJPMaYWBW/YEJDGiOiUMC52swqDhXDEyt1QM8aNfvnAX4rqM8uBaD4N0DMdjg2pR36AUD4AHZdxzlmhWu4YCD5MZzgu31to2BXYkB7Xk7PLA194ueh3zOFDzgEdwDMHhB0dPVmabsPOnAHTEPT84gkBwQ1KwsQWyEnLHIaTj4qncKTPNXlSkLDAYbpAwEexbRvv6Scc4uQbAFMpZ+IBaDBky5qiLF/CVtXfwaqXoMwFShKznjgfNV+jk4h1pwT+lnmGedL5yCpm8A7gA5uKgaUuVkD4/ABItA5eOvUnAfOuFGjt3IOXDH9qWDXCRbi5ErN7bWBx6rdPG1aQ6BzkPZaI0teF+41nAX1kdwNyYymrm1+JWXBMQa7DCdU2swsBswYFuawH6/4JkeEaHSpnBejhCWfuhUi77Z/igDN5o9DA69YECbVMUZMTB37XMED44W11vDNenbiX/Zn47a8ZEwiPVmC2cuvoafhL3mAX/lOuE8gGt4oLz8JP9+0WmY4Brs1dcW1/v6PTAIGYCBCQysYpC/qH5fcD+qzxnC53TfGnyO7fpC8Pkf2IAZGO68/hkRm85uGmdmO3SRsYFh8wkgTkNi0zOyZWpYFIcbTWS6VsBknNnAnzE5i5NFXKr6zefwNDUu+p7eJvSzsjB9znMEsXi+NcIvhxsT9pgFnWPHHsPKtTLfubG5sEchUsIATjp1AXPmD38SXxIGUwfebLk+wQs3zMLp4ChYcJ9OZHQqNckNxclc9I3Bm8qo4Ik726gvQmUZtMkCflpuX+i6ud4aDlW5yEnG1BoZePJdp9y0GFRB7CICjc3FtOvaQQxM6JcxyIuwfA4FeLD9KQEYbl3zJiNaeXDsS8uPX/BcMNjgmt3Ata39Q3INeOAbPLjtK9fp55rncQwKzgd4YIoHgmu2wbXMA439sRcMtjDYX+cH1pu9uHb7xy3TZsx/ch1YWV2Q961LU10ABBkZrLyZVDTFxgp35yek6uuyJM3r7yKoXrL0fNWERtIP/xuy4qSVsixq/g63LnFpo0wBWDhVXOB4aej5WphQHPA6kBjS5fjwzyqrhHqm362s1WxBCrB1R5ywCQqN0ms03Nhr2RGUQsiJKc4QTu5cECswoqOoMSeSfbVcLqouJz04KDBIeZMQuIhgHzcOvgayLhezE+bAgGVYcer5DbtYW4UFuD7A1mUFKg7lU8uGjMKDRgYyXX0J+rqC54RB4ZpBBgewP8S14Gk5fFnqVniwVfDskgfXc82Ba5UHexzf5BovmpVROcKDYt/UBgmju00wprRcNtD5nGzfh/KAi+sj21/l7stYX2l4AdHTgwvBpdKuus2LQAkXRcaUPwI0U1Alxc5YTXNFdMz65W7wevvWnJXKol873zKe2331Os7X4zp26wKUrcjBDBZxskc2nU+GDiGAdVHUkONZuaj1S/100beJ8UyPJ2wk9cv9xGflXYA/v3x9jM6FHPffUtk2W2+jSrYGU0VUdauXe3Ow6YK6jdJCPy2jXqt66uLrTsa+LlJlMQA+PtyW4wevWbX5XOcZZ+kjjuKs+u1euojAIw1gf4OMXq7iAWBkj881Dj6vw2CDMOWiH7jmYsz7LHt0mCFRXQ8ADF1LBz4HXDGApHtHmVpgfyMGgi9+gAeKazme2gD+mbYb/8HeLZDgxAunRir6boqMy0ktpQzn7/nsVgr0SC88IuaTaa2P2Sr6LuwdcSn/uRZVhy7xOxzt1jEv6zd1Cl3UqaxMl1Qe8Gf+6GWc7MEeeEoWeXE+CXHs0J3YI3GTT4NdUTWmcNNnB0wJSYuaTQ7jiWwOdqS088zmWHAxp8rBRlO4AzdYCPIF5l5OsBX6sPlGypqcosKZZdRHFygXa+eqjGpfkVUpjwYyLiPZPOyriq9DPvJ0C4NEQInz1mPQHQxgGrSmbaS5wwEgB9Ww5ndfnvDQKfNAroUC/XUYTKVlcf0uziPpssO1HR5krhUeHOHaC8CAMmPw9IH2CpgT+brxUK55uhQYPKS4/iEYPGi9odnmeX83Q/L47cH/9hw2fP66olkLsOh5eS4yjhwyR717RcZrvKJM/MQNpi2q3i/6ppQv+AbWD4q+zdLjL+hJgaKHI1BfPMb5zvR5l/0CSPuiarDHmDZK9kBh0x4WP8keI9ljOv9qOLqINqhF1VBftoILYzuUIs9icpgjMA2dGN7UFn1bcHHOl8Yz1k9lynF9JP5JjiudQb/lAGtlecU5ZcSIfpm7Uz/X2JdNgILpAdfgoEC0D53I5mVNwyl3qa9eFknYg4yy9tGWSgat3x4D28DAGgwyJw9jgGe+Kbe8oKHWQs+DY1yLe9djUMG1oWQcxKDDWfGgYs8yyC90OC+fOMqtHQ/scvJVj4LD5tGPMDCBwfodMFDrbQU4se6GVQyGkIH71Jr3yHtAFF8T10bmmtkYyLX7e5ELi2tDcG2kvazIzUXfgUEurk8ieO09x3bzvz1XGmwcGC3z6+xNkXE9hpNTIhcxN3k6yNS0YrzOEuRl/WKco0Xf+eibTwxznujsWD9YSLn4h+Z70Q8CnJrwcVKPT1VgDwt75LcizMAeuMur06GFE1nzLQ7GltXXdNdFcGzojCdmME4p+h7xs9ePTR76iaJvKrhH78mcXMWRR4q+i5DGHmCXQwXPy9aPV/TtibuhCzhtOuV6ooYqmq82WpsOrRkIdDpMD2Jgcq1OX8MELIWuYH7MbOCJn/gncPaEc+FkY99jX7lWw/UYWNLvWNG3cGspiNvjmisZDQ84Gw37gjHXygsuZMqD/uoh6w0PsVs8MAtnI7hmMF4ttEbf1OOsXbHmQV7ndgPXrl5vh7l2ZdF38huaBy+mPawQfE7O6u/38+M04P0v3TH8AmAVsX7JC7zq5OX3uAJpT7//D2UJShtWlBGXUBaf0sQE1jg5YMIfca0tqs64bWU2oB9934nm6SSX/ob4qTjShD0koUtUWwLTGE8BzbqoYYs/M4us16Z+eia+dtZNmPnixtTLV65Td5d8gRNecUoC3rKxyWWRHHN9Q1GdYzDTVOWCXXTMXeUabBwZ1MKNGtT2eCuuVXN53tiKDNx0AIMMPvCEMBjVvvOQxtcG8wpkDOhYv6gunOGS2wU4fCv5ZxcYeLceTRArB1G6Wy+XZYxGxvqJdtjxf5HFqDyQXDPBA9nqJiG2jZYH1b4Jg8K1ebHywK0K7r+ovi3jmuL6ngfZ5vVaPWQc5IHnCT+/9vDHc26FsGqjOl70PS8NupQ/8LxSqcpplI5Cv7QRbxZ9u9KPL1HacI5naR0LJ6eKc+/1SNeq2Cb2rExaYhMGUj/zgr0az8p4pscT2NfxXNg8MmN72Jt346Vb/aB+Xu2RyabH67Dijq5wngeDmS2zDQ4VIVV4V/Q90niqJmEVfecvvsvJZaxM9BP6mYtrPNoMeuuYfjBY8nJtky8od2XF880dBnv9BAbiXldTa7Hfl2GNjDpcLbqdPDiGge328waDKtfKtcMYWPUxLviSVSlcW0sWOKROOBA44L0zwBh07TgGx3HWhfkuuVaH0za37CRsF0Cpy9gwm0OvB2LwnNvtj+dWaptPJPP0uLblruhbhZPl9AF7Kexl6uR8r9PgoKuczuH7S37RZa/oG4Xg3ucG+g3oloq+J1iUWYqJ4DacM1Vt0e38JWc30B4XvfZSrusbNxLUpN+cRoWF9csp6/X7ftH3yggiBuqYAiZfc1/6JXsAZx24wWnnqZ8RF3PBJM13WHKUqa1pBBd1ASZjKgvz06MBgDSUARCy3bJ+QzyGUtkXxJF+1+krkZVisLYw4OHgEQzN3ddwBXOyK/ZLL5AMxnn78YhYgzsYFPsvVbiG8hAGxXdWGfQTs5I5g5LXL/Bgm2u+g3corTKRzPErin0FBnYAA6w/OvJl89Fwbfsr1+Dj4EnDs8LANjAYIENicCvXcsfCg3nCSxgsrtXH4YQBxQc3YPCC4qfbMk0eoJb0n0XUyAWEcI5cQYMt4s3NDGNatFsETztF37jot4q+V/DUfVJgsMrpUpnv0gue6+PxYjIG9Job+qTb/Z+4ENImjnm+I4lYG1z6yuswQAAClykkB3Sgy/zpeRoBCzgJYTi4iAHbVtE3pWhx/9sr+h55vukZOoK65htCZNG3xaOTmK9V/brsGejC80VVmhclio2S3AaEruCZuoEMzLDGmrUVf5kl/NaArAvFNCCDOdkV+7KMsNs+Bn4FBsOsyi38MztS8FzXjISl8GBkHhjqUmXIou8Gg4zzYQwA53GYa7Gmi3pqXdoFA9rI8cANa9VY6fW4DOYUoCcMTHAtzZ11AQxMcM0EBpYwgOJm4sFgHsiC5/tKa7tYdXFtDME1KMhe8QMlgy9cG8Ln5KLvZr0Nsd6wIHv7JYtxgGvo6wbIHeRP76cmuAZ2eEEx0y3/9pxdDBygRkSORd+8kdP5BkNjt2Q4EKMSNHnRXOTmlJT6+mhsrP3JkphlWuWly8rkXJbhJM8FIV6EbPQVka/xINBhqCkwJaeJEMz4fSRdYPHTl7RLtSV7orVhim5so4NF3/NjjAJ7WXRbQOAJryJewQ2yx4iAfNMekJFo7QGbQLEHtoZ/xPEBOi+7sfNnwfkayB2CV4BL5S5vKnm+RmLrV9HrCRRi0NULDiVgX3UCXTayrXWp1+qLKngunGxwln5I8aqRoTCwxIN1GEovLCgerKWAGMB4D3nBoMVgo7h+iweG/gCEdJnTzfWWzDZu4JpdwbVHW2+Sa7WmseMaHUpwOAsiXONz8hfVt3zOo603C/9MNrcX067PNA0g/gLyMgUwDhchpU0eNosczOd+pUjNXPTzELHGdh58bbKj3k/9IuIVUtN4G1kv0IV2d+pWdSlEaJXIYkskaRiUMW5JF2Ejb2RVc9SOXmyU35bE8QTQQ+knYM6BFc63HKtskxte5A5Df8FZL6UMK8apbhFnQDA4yjU+5XZLoHKtqjKdZgwngsaylhcCmgjqEjp/ExgIc6CiiEH8fbTyQmWBQTKNKrpVxbSyPrLsTlb4WU7hFptY5kHrWAoGeYMW2JNc5NpDir6t5zhd6+pVmAfqi/7HvnINcz/Q+GvTkSFGrGTBs7LlIR54HBj5EnEyDukZ58qDGoT2GxF301wrX5VvZPSF/kqu8nUJgzXvuHlxbWxgQOP2BlHn1OfZrg6a/O7O7u7itvs0Jy+DKPqmq8lR4yXe2t055lopPgLKL51JcLGBu5sPXrTr8VzSRRlCj8ddYzQc73LnyP1YkPv0wwmDrM5UpIwn9EtY8eO5TVBThK+7zYLJkW8USmfHqgrujxZ9L77k8XI3d/PR2CPp7AcK7uXUTA3nzbVs84vOyfFJTpYB6x+0DHXrCo/XT2lLOUBdv0IVM7t/ySLbo9zrDYeskC2UzYLH9r3dpo6aDLi2h/OSUfpVGfqaJ7lqyRyTcVS/LQxmG2KoXrjyOkplL5tvPDqzZT5HvODwk1Ii7Osdu/G9R4rrlc37DVzjXP2uxhlbyA3ujg0Zlu92a3iq5O5j0MlQGPitGFjlmrccUj4H53lJz1ym98Qf9TOTh9vVj+fe/dK77D3vfmWdIGZmhouqMf02My0GEZGtk9VcNCvjKrOSo/zOr+tHWtINTjh4wlbpUAzbRf5y6Wfh5CKleS+X9Jt60enNQT8L/VLauRQZIx7qFGAG87Va0Impd0qLDyYnpFenrPX8PR8qaI6ABxkuHhfYGHDq6L6qXG0kU/4XEZitKNjbkDbKWZU49fAJXBW/FlNmI4HNucg9xp3j9ToLXEraHuWOwiu0ZaazKniezouGIxGD1+/iYug1gJ/0mjat764INa+jioHKpGUMjn9Rff87V3s4l46JB7K4XvFgiKnl9WFe8D6CAfP52WAwN9yUeFo8WMH/6LiWfB09lhNc28DgUQqeEwZ2JQaH11vmOPEAvn2WMy0wkRV0E1T3/yO/qH4FBkdxvgaDFue0/61JbfEgceiVl1+xJ3fPP3C6WuJ73/Nee/X9rxKQ02CR7oxQg4oF14SNUpsE+uXWXFOzbIkGnsSbsmye5qDIbo03QmcaD4wFJyIwEacbL3KnWxyoy9QvY7CwsHAsoNOUYQmDGE9j4KCLJ+wLyR3s0WSXFp9TJjX0S8/SB+oXSuei77WYab4jNluITJfjkPMNvWIznvO96Ac2ClsKTlLBvSiCnvYYJrlRbA7znViWgufElyi0ridpyQOS2xX79oXlfK3KCPuGjPhZdckvHbQYhHljHRW7ZZKb5j0p3X1Rvb4QUNcH2DcthoyBX4FB/dcFBA+8+o1Yq8wD4+mGb5pyR+VBPgh0Lxh0Psc2uIZ61eJrwMDUx3RRni76rjJ6HrQvWRzmWgS/4xquDcG1kbjW8IC/cn0peHaBARVfJ3NI/uFLFvFYbsvnULYpxWkoI2wEXIP9ohb6A9dsci38PWX1JgbAg+CawMDMzO/1+PArH7SX7162592uzjR98P2v2sc+/FH7xV/+Jbt7cgen+jxh400MTuv5pNIf5vKbEhAITTOBcXSBWbqG7ABd4NIaZ0hdFj2MTgc4J5QLm3v9lADLNZza0m9YUjkCwFL0zXKXk5X64XhgK/izPg0zMFx7AY/ewDm19sinDWWPGVy6sIex3Jz5M8PAik99xD8DbmxgYMANhWk95epi381CyMkDuhSY0txGkmuIVeJB0cXK2qqboybCsS8tb2Nw3UkfuZb8S5ELhxIh4xAGas0QAcFHpOJrV+vc8to6UvS9jQFhL3jAL6kwD0iE4JptcA2hOva1aeHrNjCoXDuIwQbX9guPKw+u4ZopGQ0PkpHK/sET519xvGsx2Fxv8887Psc3fM4u11rsm6/KNzwYZvZ0DHvX3RP7xNd81N795N32vNvVmaaPvPoR+8zHPmNPB/z7MwQ2XEuZAzx5EnBpH0qoGtzMG5vVNCDe0v77bPB7vpR8A3RI6ejibRz+O8R4ZXLCIVS8sagaT1B1pK6gL2Vtlu6In1SvXnJczDUInQEObzo4HnNDCcmBc376h39clyBoK/aoFCIbhS0lBNUeNbK/4FdtLvEr16QQ+BstpB4rq9xw+kXZA7EcRoaRes0f7AwzpojzSPfSOpIYCWBUQKz2WA8MilyFgQiY2mxHxsAFBp44XmQkRfO8BcdzB9oArWN9Z0Bule84Iq8PCVXmQfu1aRZRC7JNpHqqjOkQCteU3IyfOIBex4O+4JkwEDKUn1f6WaOffsHAks+pX9YvMtQeIRscHoBrhQeWslkoQ9pc3Nzal/vlGqg7v7Ov/8Bn7fUPvrZP9EduVwdNn/zIJ+z1T3/O3nr6lkVKLRewutlYs12XcnO3KKpOznLkjiOl64TlVzFtLkAv+l1+ikt1vGzwRr/UMb54PLib62BOj2c8XlJSFX0bpkOrYJ5FGc/qeBddin420tzyKQrsIbixt3jTQXdhUPaWC7GUjTAyW8WRRwruFfZFv0qilkOwiQ+6lghYBvCyLnytuYS94AbyYG7qhc9iLZjCSq2ZeXG3H5xSN2TYlgzs4GptbfgDhYHVYdPNJoggZWSls4yQyzxoGKiU2eZBirHxVE4vWWwFda6uceG2wbhsynqIy5QMHy+cTrmmlgKFaCDXy3C50HoVX6M2G4eCKrfKqN344ngGGKi14CYwSH2HHLAP7r1cm77ECtew39yP5rVri+tVP4XBU3tqd+72zR963V5Euzpo+obf+5r/vte+yV568iQFyuDQIBuBJz+MSvunABzZkpf3yCzNZ6MzSNotpg0vQkbBc9X6fSRd5kkDenJR9Qzo8BVbmG+XqgwRMQxdjMzcWEXVZlz0jc+ZHcbz8NYhmHTCIlWRQLmoMiCpVjMeWD+Wv3icuaEK8/OqwHoqzNgUbjQYZGticSRykV2wd4nDNUe0RwQjQ3McqXYButgocYIIOH8JIy2lhoWQmC1ww+p8y1ooBxms29FE4FN8WoNbGAgZuug7Y59wNi+PiGytLcDArPqDZV8vIgz0swYDnSnoMTiCs7cLTikYPEAfSut3Ugjw0MXXeC1zvWIwsxXPAgPbwGCAjKlTrD3Ta5pkGKw75kHZoDMPyLeH1wlsrXANMSBePxIG++stYQDF9YoHJKT4YFx7PodLPidxbW//PcC12XEk9SoGZu996T32LR9+w15Eu6n0/I3PvmGvf/rzdnd3Z0/H0wVCEBVwsdj417bm0wgIItafAPhjRrCx6GuRXc4uzZPlIBlLP5CCZKP0/rJc3NwVVZeCxHnKcJxvk11CrOZ8pX4zi2YwX0A1p4bho448nrF+KS4F8JfDtKVX2AADoek4sAiUU7SXU24puL/wJs93JHtY0mXq17x0UIojh+BfAbpiUIuvTchgOxOH4F75tXOFM8hgrsUaC7WgANPAkab5qrlZ4Xj3kkDYvtic5AaXAucqo8NgH+cdDBb/bPFwysDMy6bc+WjZRlI5dOqLvsP2LFcX1+9/2bzHoCss38LAtjBoeJDX5TU8gJUvuWYbXEMFtY/tMYj1ZmYHMajY3/KSBfL9ElSIdR5PZ/jQl3U5Wlzv63cMopKfXAFnYBCgd3KvLPqeBzxjn1OyywQM+BzKVl+4NirXnj59al/z0nvt86++Zt/6kW9O4d7zaTcFTd/++u/3P/aHftie3D2xt99++0JALpRTmx5Gwl6mW7+kXYrsDDblS02VLmwLAuCxgJzYNNt8Hk6HevVlWijag1MfnoZXUEOZHBP6GQXaod8IPVG/S8ARGau84CK41PoF5ng6be1Bwe9KDS07cPFhzfwt7M1o8JrCvu9J+oETgHMOZb1yIEGZCIsFLE9kE3srQuoBlAqqwr6WxisnUGGjY4WQbDfED23JWSUzdcrdtq/mUJWLnORTrjUytjBYPCjYz50mcZfWkboWB7Itf7CFgR3BYCQM8PCSeUVTc8h2sCMqayFxTdu8w77nAXPtOgwy1+wGrm3xoOMarpkOg+pj2T97yzWGOfxa7zuPrTcvGDhNbga/yV9hVAY8GM5cM/f1/TN6uWPhETxYMkSwT4ETBXSXebtY53QouGDggmtwiLQ8NToIivUG+i2uJV3c3d58+lX74Cuv2g986rvtRbWbP3LwI9//Z+zjH/qYvfTkiY1LtoniDEOygaHgb9QWyWOg/Cw5f/8i/43HKyIxqQX6uRgtp6MH60f/HWm8rAtH36RMUZmV5tM6AgwY4Dip+Np58I2sUrLRyBcv9hBOrmaV4m9VidTN8z0RYOeOfG2YsqyISy/TSfZwwT+pH7k9kDHWtcrxdXUbAy+/JLv1tnSF1WEZRJg0uXpvDj5woybMm824vmou9Gs39yHkZl2aou/kh6ojwg06qV5gZB6MKqIB/1jPLGPb5gI/ca/t9ut5UOSOhIGaUsOD+haa6je7bwe6yINq8y4A2+qXD1+2OJFVLr7YhAwTHG95oDlRuaaLr3MLjwQYtJ/xyKD2xfWpW/E58glK4ca8mHkwyh5gpnzOfb+nNuzlJy/b5179evvxb/pLGzvLs203B03f/vq3+Q/9gR+wD7zvA/bmV9/MuJnCrW7YykNBxLB6uehWvywdjW4uCkVglscT+mXRM1LORd/Jk6xMW+dcQG7Vz7V+Gdf7kN8wcIviSNZl/S84Rj1e7qexVzZqv2idC9AFpHo8oV/Gqtw84tQzhD2yLdR4AvuRgvUFs7LRoItmlniq5jsHPNwvyw0Z6wArdTF2nJIvnc0Frwj5DZ5WoA/J6F2El3tz0bduItgW65fWPq4FT+vNgFcQzOK1pXS6l0/7CauBfAaAcTiLTTywZx4oDnU8cKtrRuFsCee8LEu2bpMHwseszI3AIA1XiuvlwjR5czkSuRddXAyAj84WBnLKlUO2OMTD5kyQl36DpwYBZCn6fiAG1eYCg4TV2JCh5Vb9vOHabF95+yv26fd/0r7vE3/QXmR70Oc0/+qf+FH7xs+8buZ3XKgcOHAdq2W+YNiOJ9P4fTrC3aLv7AwjE54vcZFxegwVqd7pQGbOPZ+cU5rY4iSyWfSNx8V5IoLf7/Ub/PgBUttYOxVAO+k0B4w58gmtHOzXYXCUi1yIqwoSOSOoim4tL2o2eUgADOjsNFR6P3TCdHdb9L1u9RiCQJg6DeDOzBjFPHBcxhRsRI8kmAd1zx5sN0xZZ+66VewV1wr0iNkgvug1E1YqhfQK5yUi8XRsYaC4pjHI3L2X8EgYTPsOYx2MedAVX5vxcCtkRM72DhCgr/16roXgLa55w7WOB4PkIs6Id1pb0pdUHnRcMwu+DdFPlRNcg4FtYICF5ddgEDZPIRWpHzxAf0WEhoaPgCXXEgZs38fHwI9g0HAtlpbw2YjzDPoFD7LPeTqGPbl7Yt/z8e+0v/bGX1Th2XNrDwqavuVzX/Af/eN/2b79899qX37zy5FOhJNHTmkSqhn8VYgZBDhU9O3wE4fmS0SECOh00XcYGJz/VkGixfpovw8FBy38+CQVu11+rgBsnbjw5umIbM19UpHnG0HhcjYYBKA94thyUTVsUIuq41RfC05HgNGYPH53mgYu1tQR0rvoHESR7F7R94CfpF/YgGtCFKZCZ9BvOaJaWQ5HMpChsFLcBb6otYAOP+NXX2JQa0ZjIF9sABGjkWGZGznDNQNYWE/ZNbDcXIir+NdjYA0GmZPXYDDlbmFwXcHzEa7FvVtcGy3XcB2ZkLtX8Kwx6LimCL253vLSRx4snxgX84ceOWt3uZBkxDV8yyz5JrOVVUIM5pADfg6rGDys6HswzsPWR8IX14bZgKLqyQP6dz1X1CO4Nngvu782CtfK186TjBkXZwzqeps/ubC8X2/xWO6t8Zb94Ce/1/7kZ37IXnR7lIjt7/3jnxp/5x/9XfvFX/0le+Xld99P2g8OvoiNOZL7/8b+Ngjga2eFEtCH1eGgZ9vxEqBMQm2OZ8HyDdXn47j4suq6CjdvCRGz8HKnVmELAxpP2EONeMBEx/WbJNrqOYR+qdceCIovzsFlqzOdIjdsJOW6vFTPGPWtRH+AjCMYhNw8X0B+Oj4M5jPQu7JqvxxfZRmFfzfI0PPtsO8xYJwfnwcd154VDzoMZntUDJJ9q83jlwH9nj3XUlA45frW2DdikHDeXG9kj2ftczq5j4fB3nozM3trvG3ubt/8oc/b3/62n7Tv+cR3PkrM8pD2KP/a3U/82b/uf+tHfsJe++TX21fffsveevp2vxdnAC+5cXaAXkjLbdiuA0y/UDpQ9XQYe4bO5c9wyrj8qr+KDkMPGJb+xKt0ZipYv+QcPP2tgRSdTDddCRKMnd9G3B5PW6nVz8Aeex2b1JAeLwI6+ccNp1rskbuva/wYaQ5+qOjbvVxTaW2+ljIqNB6gsiFD2dzltbhYsgmdjLWJWcmoXOO002hJZeGEmzbWKBtNxVBg33pNYGBsuJFXyBVcK7qYwl4ECxv2vYUHmNE7cm8lL2T9d+U6dRump1aDnhwwbTHCN6906rUZ+TRQZPIQQMGD0Uwjcw2yPKQM3YtZRZTRPd3Y9zmjuZbv7b92vscD35Cb19vMQt2/KffE7+wLH/5G+8kv/Pg7ImAye6Sgyczsb/7IT/iP/6kfszc++4325O7O3vzqm/Y0f3o4n+jdCzEiog9itEXfacN2NzneSGTZLfqmTcSTDL+kRAdtcoXf8iCkNgwvmar+y9esdD3/ATEHT0ePJ7AX+s1FOQPHXHTLQoQ9Gps7XCsBsuIGpvxBl2lM9BP06MCqHmTfoa5pTLFfTBcJlou+vZeb7DZYhDzZaewppE/gg4NtgxgvMpR++QzAPN1im1j7lm25zktkr5WFtTBV/co1KEhjgIyLr1C2XIIP8AApThuG4EH+9ownGbau7fgw94p9twbrgpM8yFRwca8qrlc8aCJwMZHqY1zwJZsobJ4Pg9m+NBmKvDzxYP69mo3vxUfB2cwCwIKBH8FArkFrbN7hnMVXHmQWycRRuhe5hteuwyD3qwMgBsOGffnpV+y9L73HvuOj32o/+vqfsz/66e9/RwRM3dQf1P7+z/z0+Kl/+tP2xS/9JzMze/r0aTh/XA0lvQqPHy7EykXfrfbN4y+SsDlTPOJ4O+DuozgpeKMbnFZ8LeaKy5FHcmu8fbHNH4U9yqOQDaAPwLurnzpyKrnXjHcIA5xvVaVekxHxMflXpeoD+1yAKe91cfEqvaIIdV5SGTdG4/ictvTLazVO+/EYKr90sBUQ3/JYkuv0WK/tx1FpIofxrpf2uTaumNtRrvEjmBZnOc7tPOi4pniw6Z+v5JrUhbA/uN4I51seFb7TuNY9Bt2R4TiKXcE7LDswm0HtnT+xO3P7wx//Dvsrr/95+/5Pftc7JmDqIH5w+9kv/tz4B//iH9o/+bf/zH79f/9Pe+nuid09ubN5+loFxR5g4TUzi7/nwGke9eCEN4MPPPTFvZdrw8R46ub6VthQ+k1VioOZ46HKR8YbdbEOoZ/E6hgGsTL2xmv0y/gtEHhxCUirPUzY4/B8G3u4Cf3SSU/Ibe3b9RM2ym/W8OOUxKtsNxNYmZhvubfhi4n1MdfOY2Eg1pF6s3Xs2dL2uLsl14RcxaHbZVyLQZXbYPBIPNjjmuLBTVy7i5dAVrbG6zV6KcIZg8gaDnEtuU5P2G/KhZuFLodlXMkDbfP0gsbl+qaMyeMd/cwvh2t8k9ttZTCrzdGW9wPewjWUYSDDW5+DeyjOreeBmdnb9tTc3D79vk/aX/iGP21/4ws/9o4KlmZ7pkr9y5/91+Nn/t0/t3/1c//GfuGXf8G+/NWv2Ltefpc9ubuzu7sndndJfWI90wSwjfJVMiZ3g34lcsbBaMNXA1Zdbs5sQKfIKmX9kpQrMky36UfRVDNfzDRdMd/m4FFPMvMiOMV8MwZn1thDHEB7sEIGLupdTG/IXsgB4VKVC6cvT9gfOr0e7ce8p38GI9/igqd7Mq7EgDMMYaNnV/CMb6Xu8OpGGb3c6zC4PpNzzEblDVhj+yoelIEO8z/Lzdfil0fFQOBc7fFsX7Lo5WabdzIeH4PD6+2RfA7KGzbsqQ0b46m9PZ7am0/ftK991/vtjQ99zv7IJ77LfvBT32vf8nVvvCMDpm6qj9q++N++OP7jl/6z/fx//Q/2X37lF+1X/tev2q/9xq/bb/6f37Tf/p3/a1958yv29Onb2plcq2XZBGAXXXsyhPFbiOgnQnTBRT9e/SiLO7ob69dpdGDueCrBCdRHasOORBc83rYa0iGgFVIgNCuPApZ0KkWcxbU27mv1i9MN1rYlsctc6wTlIy5mB7Lga0ggfh0Om4UxBdW1YoxuvuX/nS5jIDRNX65hRzlPMWDKYpiTeHLMJbuT1X60YBBtklXmk+/sUNwBBfEYuKcNS5FywXI5rVPGgnWj5ITyERtznRa+VxMPAOLeNljuMXSzy1pJvsQbnqPD8ITTJof4msyIojm2uPAMg9vMY567cCYb3Kj38jWdaTL2OaTULfNPyvjG/kZjzXkKb9ziikY3e3L3xF556RX72ne9zz707g/aR9/7dfbJ933cXvvAZ+31V1+zH/jUd79jg6WtqT6z9u9/6efHF7/0n+xLv/bf7X/8xq/Zb/32b9n/+/Lv2FtP39KpOxVsGDtkujZPTOlRHEXP6TsBnD5P17bSJZ7psAEmrYSlLIQQ/eTwZBCiXVwLJ43XVMxEGYUFBzwuXf1qoNdGSHnydUc2ctjiUdyc1ZrH6FL5o8Ug6xa1cahWdy05KxPYNwFXny2bTm5+nJUV3XqEVTzXvJc252G8GBCXZpNrNzLRUT1WKLaEaVJgxhwn7mYadNcynY7yKlPB8yEqPpZbsW9sBNBw5ho3siS/dGsOLOIxj3rcp08QM2hCrJxuHUKEDGzJHheb08dlk36df1aP++b6BV9TuSFKKi4cd1yY3al2DQj+jFQGHjj2a7zJcgj38/W53sBu+IhNtRr4pGtTxOIV3quwj/luP/Js/KRv+ETSBYWlXwFnehyNXLtcmXuTmdtLdy/Z17z8HvvQu1+1j73399in3/8p++FPf987PlA629nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729lubf8f++vc16zIedYAAAAldEVYdGRhdGU6Y3JlYXRlADIwMjAtMTEtMjJUMDc6MDc6MTkrMDA6MDArGDAkAAAAJXRFWHRkYXRlOm1vZGlmeQAyMDIwLTExLTIyVDA3OjA3OjE5KzAwOjAwWkWImAAAAABJRU5ErkJggg=="
109,684
109,684
0.96148
4,067
109,684
25.930416
0.951315
0.000683
0.000834
0.000863
0.001498
0.001498
0.001498
0.001498
0.001498
0.001498
0
0.161057
0.000018
109,684
1
109,684
109,684
0.800441
0
0
0
0
1
0.9999
0.9999
0
1
0
0
0
1
0
false
0
0
0
0
0
0
0
1
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
1
1
0
0
0
0
0
1
1
1
null
1
0
0
0
0
0
0
0
0
0
0
0
0
8
4be4d5c8dca76978aeb7851eb68822f49cbcefeb
4,610
py
Python
tests/core/test_disjoint_set.py
dekespo/AI_ToolKit
54c7784693189aa0c5d95d48666876f9a18cf922
[ "Apache-2.0" ]
null
null
null
tests/core/test_disjoint_set.py
dekespo/AI_ToolKit
54c7784693189aa0c5d95d48666876f9a18cf922
[ "Apache-2.0" ]
56
2018-03-03T14:38:31.000Z
2019-12-29T22:23:25.000Z
tests/core/test_disjoint_set.py
dekespo/AI_ToolKit
54c7784693189aa0c5d95d48666876f9a18cf922
[ "Apache-2.0" ]
null
null
null
import unittest from dekespo_ai_sdk.core.disjoint_set import DisjointSet class DisjointSetTest(unittest.TestCase): def test_element(self): element1 = DisjointSet.Element(3) self.assertEqual(element1.parent, element1) self.assertEqual(element1.id_, 3) self.assertEqual(element1.size, 1) self.assertEqual(element1.rank, 0) self.assertEqual("Rank: 0, Id: 3, Size: 1", str(element1)) self.assertEqual("Rank: 0, Id: 3, Size: 1", repr(element1)) element2 = DisjointSet.Element("element") self.assertEqual("Rank: 0, Id: element, Size: 1", str(element2)) def test_disjoint_set_logic(self): disjoint_set = DisjointSet() for id_ in range(4): disjoint_set.make_set(DisjointSet.Element(id_)) # pylint: disable=protected-access self.assertEqual(len(disjoint_set._set), 4) disjoint_set.union(0, 1) self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2))) self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3))) disjoint_set.union(2, 3) disjoint_set.union(3, 2) # Ineffective self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 1, Id: 2, Size: 2", str(disjoint_set.get_element(2))) self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3))) disjoint_set.union(3, 1) self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 2, Id: 2, Size: 4", str(disjoint_set.get_element(2))) self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3))) disjoint_set.union(0, 2) # Ineffective disjoint_set.union(1, 2) # Ineffective self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 2, Id: 2, Size: 4", str(disjoint_set.get_element(2))) self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3))) def test_disjoint_set_already_or_never_exists(self): disjoint_set = DisjointSet() for id_ in range(4): disjoint_set.make_set(DisjointSet.Element(id_)) does_not_exist_element = DisjointSet.Element("unknown") self.assertIsNone(disjoint_set.get_element(does_not_exist_element.id_)) disjoint_set.union(0, does_not_exist_element.id_) already_added_element = DisjointSet.Element(0) disjoint_set.make_set(already_added_element) # pylint: disable=protected-access self.assertEqual(len(disjoint_set._set), 4) def test_disjoint_set_rank_comparison(self): disjoint_set = DisjointSet() for id_ in range(3): disjoint_set.make_set(DisjointSet.Element(id_)) disjoint_set.union(0, 1) self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2))) disjoint_set.union(0, 2) self.assertEqual("Rank: 1, Id: 0, Size: 3", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2))) disjoint_set = DisjointSet() for id_ in range(3): disjoint_set.make_set(DisjointSet.Element(id_)) disjoint_set.union(0, 1) self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2))) disjoint_set.union(2, 0) self.assertEqual("Rank: 1, Id: 0, Size: 3", str(disjoint_set.get_element(0))) self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1))) self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2))) if __name__ == "__main__": unittest.main()
53.604651
85
0.652495
671
4,610
4.280179
0.086438
0.210655
0.205084
0.212047
0.777159
0.75
0.739554
0.737813
0.726671
0.715877
0
0.043914
0.199783
4,610
85
86
54.235294
0.734616
0.021909
0
0.613333
0
0
0.164557
0
0
0
0
0
0.506667
1
0.053333
false
0
0.026667
0
0.093333
0
0
0
0
null
1
1
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
1
0
0
0
0
0
0
0
0
0
9
ef43e37b3f3dd1fce186167a99e5d95890f04f75
92
py
Python
tests/test_sdf_net.py
soundmaking/sdfspu
164af2602d07b18c45a8182cd5e9638628c7e165
[ "MIT" ]
null
null
null
tests/test_sdf_net.py
soundmaking/sdfspu
164af2602d07b18c45a8182cd5e9638628c7e165
[ "MIT" ]
null
null
null
tests/test_sdf_net.py
soundmaking/sdfspu
164af2602d07b18c45a8182cd5e9638628c7e165
[ "MIT" ]
null
null
null
from sdfspu.sdf_net import get_ip def test_get_ip(): assert isinstance(get_ip(), str)
15.333333
36
0.73913
16
92
3.9375
0.75
0.238095
0
0
0
0
0
0
0
0
0
0
0.163043
92
5
37
18.4
0.818182
0
0
0
0
0
0
0
0
0
0
0
0.333333
1
0.333333
true
0
0.333333
0
0.666667
0
1
0
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
0
1
0
1
0
0
7
32a1b5b134b7ed49a4f856350dca3162571c6ea0
6,122
py
Python
savepointradio/radio/migrations/0001_initial.py
RecursiveGreen/spradio-django2
ef7c6e535fdf4bf096b0a1669005600fa8e5ac92
[ "MIT" ]
null
null
null
savepointradio/radio/migrations/0001_initial.py
RecursiveGreen/spradio-django2
ef7c6e535fdf4bf096b0a1669005600fa8e5ac92
[ "MIT" ]
null
null
null
savepointradio/radio/migrations/0001_initial.py
RecursiveGreen/spradio-django2
ef7c6e535fdf4bf096b0a1669005600fa8e5ac92
[ "MIT" ]
null
null
null
# Generated by Django 2.0 on 2018-01-05 19:40 from django.db import migrations, models import django.db.models.deletion class Migration(migrations.Migration): initial = True dependencies = [ ] operations = [ migrations.CreateModel( name='Album', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')), ('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')), ('disabled', models.BooleanField(default=False, verbose_name='disabled state')), ('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')), ('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')), ('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')), ('title', models.CharField(max_length=255, unique=True, verbose_name='title')), ('sorted_title', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized title')), ], options={ 'abstract': False, }, ), migrations.CreateModel( name='Artist', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')), ('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')), ('disabled', models.BooleanField(default=False, verbose_name='disabled state')), ('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')), ('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')), ('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')), ('alias', models.CharField(blank=True, max_length=127, verbose_name='alias')), ('first_name', models.CharField(blank=True, max_length=127, verbose_name='first name')), ('last_name', models.CharField(blank=True, max_length=127, verbose_name='last name')), ('sorted_full_name', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized full name')), ], options={ 'abstract': False, }, ), migrations.CreateModel( name='Game', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')), ('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')), ('disabled', models.BooleanField(default=False, verbose_name='disabled state')), ('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')), ('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')), ('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')), ('title', models.CharField(max_length=255, unique=True, verbose_name='title')), ('sorted_title', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized title')), ], options={ 'abstract': False, }, ), migrations.CreateModel( name='Song', fields=[ ('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')), ('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')), ('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')), ('disabled', models.BooleanField(default=False, verbose_name='disabled state')), ('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')), ('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')), ('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')), ('song_type', models.CharField(choices=[('J', 'Jingle'), ('S', 'Song')], default='S', max_length=1, verbose_name='song type')), ('title', models.CharField(max_length=255, verbose_name='title')), ('num_played', models.PositiveIntegerField(default=0, verbose_name='number of times played')), ('last_played', models.DateTimeField(blank=True, editable=False, null=True, verbose_name='was last played')), ('length', models.DecimalField(blank=True, decimal_places=2, max_digits=8, null=True, verbose_name='song length (in seconds)')), ('path', models.TextField(verbose_name='absolute path to song file')), ('sorted_title', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized title')), ('album', models.ForeignKey(blank=True, null=True, on_delete=django.db.models.deletion.SET_NULL, to='radio.Album')), ('artists', models.ManyToManyField(blank=True, to='radio.Artist')), ('game', models.ForeignKey(blank=True, null=True, on_delete=django.db.models.deletion.SET_NULL, to='radio.Game')), ], options={ 'abstract': False, }, ), ]
65.12766
144
0.623489
658
6,122
5.62766
0.159574
0.127734
0.097218
0.05131
0.800702
0.797732
0.776938
0.776938
0.776938
0.764245
0
0.010239
0.234237
6,122
93
145
65.827957
0.77965
0.007024
0
0.662791
1
0
0.184795
0
0
0
0
0
0
1
0
false
0
0.023256
0
0.069767
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
086a983d4895948252f70c89bdef8187e7bd0202
217
py
Python
Archive/TF_VERSION_MASKRCNN/datasets/ellipse/utils/__init__.py
iphyer/DefectDetection-MaskRCNN
7d1faf99bb2c4ffdbbaaf4544a996b97b2f3a2f9
[ "MIT" ]
null
null
null
Archive/TF_VERSION_MASKRCNN/datasets/ellipse/utils/__init__.py
iphyer/DefectDetection-MaskRCNN
7d1faf99bb2c4ffdbbaaf4544a996b97b2f3a2f9
[ "MIT" ]
null
null
null
Archive/TF_VERSION_MASKRCNN/datasets/ellipse/utils/__init__.py
iphyer/DefectDetection-MaskRCNN
7d1faf99bb2c4ffdbbaaf4544a996b97b2f3a2f9
[ "MIT" ]
null
null
null
from .DefectDataset import DefectDetectionDataset from .add_transforms import rotate_bbox, random_resize from .imageUtils import * from .postProcessing import * from .evaluation import * from .add_transforms import *
31
54
0.834101
25
217
7.08
0.52
0.169492
0.19209
0.259887
0
0
0
0
0
0
0
0
0.115207
217
6
55
36.166667
0.921875
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
08a9f611b5a23c06374467218ae0dd6b72e6eed7
211
py
Python
exp_configs/__init__.py
JanAlexanderPersonal/covid19_weak_supervision
5599e48c9945f1e08a2731740bc8f6e44a031703
[ "Apache-2.0" ]
null
null
null
exp_configs/__init__.py
JanAlexanderPersonal/covid19_weak_supervision
5599e48c9945f1e08a2731740bc8f6e44a031703
[ "Apache-2.0" ]
null
null
null
exp_configs/__init__.py
JanAlexanderPersonal/covid19_weak_supervision
5599e48c9945f1e08a2731740bc8f6e44a031703
[ "Apache-2.0" ]
null
null
null
from . import baseline_exps, weakly_exps, weakly_exps_pau EXP_GROUPS = {} EXP_GROUPS.update(weakly_exps.EXP_GROUPS) #EXP_GROUPS.update(weakly_exps_pau.EXP_GROUPS) #EXP_GROUPS.update(weakly_exps_pau.EXP_GROUPS)
30.142857
57
0.843602
34
211
4.764706
0.264706
0.388889
0.240741
0.296296
0.802469
0.802469
0.802469
0.802469
0.802469
0.802469
0
0
0.061611
211
6
58
35.166667
0.818182
0.42654
0
0
0
0
0
0
0
0
0
0
0
1
0
false
0
0.333333
0
0.333333
0
0
0
0
null
1
1
1
1
1
1
1
1
1
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
0
1
0
0
0
0
11
3ee630ab7ff5f2b360ea0e378fe03d5766d9c7ee
262
py
Python
data/scrape/fields/utils.py
jamesrharwood/journal-guidelines
fe6c0a6d3c0443df6fc816b9503fad24459ddb4a
[ "MIT" ]
null
null
null
data/scrape/fields/utils.py
jamesrharwood/journal-guidelines
fe6c0a6d3c0443df6fc816b9503fad24459ddb4a
[ "MIT" ]
null
null
null
data/scrape/fields/utils.py
jamesrharwood/journal-guidelines
fe6c0a6d3c0443df6fc816b9503fad24459ddb4a
[ "MIT" ]
null
null
null
def preceeded_by(string): return r"(?<={})".format(string) def followed_by(string): return r"(?={})".format(string) def not_preceeded_by(string): return r"(?<!{})".format(string) def not_followed_by(string): return r"(?!{})".format(string)
17.466667
36
0.633588
34
262
4.705882
0.264706
0.2
0.35
0.375
0.98125
0.98125
0.98125
0.7125
0
0
0
0
0.145038
262
14
37
18.714286
0.714286
0
0
0
0
0
0.099237
0
0
0
0
0
0
1
0.5
false
0
0
0.5
1
0
0
0
0
null
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
1
0
0
0
8
eb3a81b4ec648c94e97156ca578358c65e7eea0f
2,349
py
Python
geniesp/bpc_config.py
Sage-Bionetworks/GENIE-Sponsored-Projects
e34be3ece96144aa525c7281738736d3c5ef93cb
[ "MIT" ]
1
2022-03-10T21:45:53.000Z
2022-03-10T21:45:53.000Z
geniesp/bpc_config.py
Sage-Bionetworks/GENIE-Sponsored-Projects
e34be3ece96144aa525c7281738736d3c5ef93cb
[ "MIT" ]
36
2020-09-23T18:16:29.000Z
2022-03-30T20:56:45.000Z
geniesp/bpc_config.py
Sage-Bionetworks/GENIE-Sponsored-Projects
e34be3ece96144aa525c7281738736d3c5ef93cb
[ "MIT" ]
null
null
null
""" BPC configuration classes >>> git clone https://github.com/cBioPortal/cbioportal.git >>> python run_bpc.py NSCLC ../../cbioportal 1.1-consortium --staging """ from .bpc_redcap_export_mapping import BpcProjectRunner class Brca(BpcProjectRunner): """NSCLC BPC sponsored project""" # Sponsorted project name _SPONSORED_PROJECT = 'BrCa' # Redcap codes to cbioportal mapping synid and form key is in _REDCAP_TO_CBIOMAPPING_SYNID = "syn25712693.7" # Mapping from Synapse Table to form (derived files) _DATA_TABLE_IDS = "syn22296821" # Storage of not found samples _SP_REDCAP_EXPORTS_SYNID = "syn21446571" # Run `git rev-parse HEAD` in Genie_processing directory to # obtain shadigest _GITHUB_REPO = ( "https://github.com/Sage-Bionetworks/GENIE-Sponsored-Projects/" # "tree/a672a70ad5195e6e8359325f5cea10bef384b2ff/" # "geniesp/bpc_config.py" ) class Crc(BpcProjectRunner): """NSCLC BPC sponsored project""" # Sponsorted project name _SPONSORED_PROJECT = 'CRC' # Redcap codes to cbioportal mapping synid and form key is in _REDCAP_TO_CBIOMAPPING_SYNID = "syn25712693.6" # Mapping from Synapse Table to form (derived files) # TODO: Make versioned _DATA_TABLE_IDS = "syn22296821" # Storage of not found samples _SP_REDCAP_EXPORTS_SYNID = "syn21446571" # Run `git rev-parse HEAD` in Genie_processing directory to # obtain shadigest _GITHUB_REPO = ( "https://github.com/Sage-Bionetworks/GENIE-Sponsored-Projects/" # "tree/765a209402a0e4c8517ec826ddad1f05d842f54a/" # "geniesp/bpc_config.py" ) class Nsclc(BpcProjectRunner): """NSCLC BPC sponsored project""" # Sponsorted project name _SPONSORED_PROJECT = 'NSCLC' # Redcap codes to cbioportal mapping synid and form key is in _REDCAP_TO_CBIOMAPPING_SYNID = "syn25712693.6" # Mapping from Synapse Table to form (derived files) _DATA_TABLE_IDS = "syn22296821" # Storage of not found samples _SP_REDCAP_EXPORTS_SYNID = "syn21446571" # Run `git rev-parse HEAD` in Genie_processing directory to # obtain shadigest _GITHUB_REPO = ( "https://github.com/Sage-Bionetworks/GENIE-Sponsored-Projects/" # "tree/765a209402a0e4c8517ec826ddad1f05d842f54a/" # "geniesp/bpc_config.py" )
36.138462
71
0.710941
271
2,349
5.95941
0.280443
0.059443
0.034675
0.0613
0.844582
0.827245
0.827245
0.827245
0.827245
0.827245
0
0.081513
0.200937
2,349
64
72
36.703125
0.778903
0.509153
0
0.56
0
0
0.271248
0
0
0
0
0.015625
0
1
0
false
0
0.04
0
0.76
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
1
0
0
0
0
0
0
0
1
0
0
8
de1d2fc2bfadedb7e6cdb9487f6655a95c475516
7,827
py
Python
tests/src/test_mark.py
U8NWXD/scorevideo_lib
2af8c9ce6adc43af502aaa2a987ecc349b8ac16c
[ "BSD-3-Clause" ]
null
null
null
tests/src/test_mark.py
U8NWXD/scorevideo_lib
2af8c9ce6adc43af502aaa2a987ecc349b8ac16c
[ "BSD-3-Clause" ]
1
2018-08-06T00:00:43.000Z
2018-08-06T00:00:43.000Z
tests/src/test_mark.py
U8NWXD/scorevideo_lib
2af8c9ce6adc43af502aaa2a987ecc349b8ac16c
[ "BSD-3-Clause" ]
1
2020-06-05T00:38:23.000Z
2020-06-05T00:38:23.000Z
# This file is part of scorevideo_lib: A library for working with scorevideo # Use of this file is governed by the license in LICENSE.txt. """Unit tests for the :py:class:Mark class """ from datetime import timedelta import pytest from scorevideo_lib.parse_log import Mark # pragma pylint: disable=missing-docstring def test_from_line_valid_start(): mark = Mark.from_line(" 1 0:00.03 video start") assert mark.frame == 1 assert mark.time == timedelta(seconds=0.03) assert mark.name == "video start" def test_from_line_valid_end(): mark = Mark.from_line("54001 30:00.03 video end") assert mark.frame == 54001 assert mark.time == timedelta(seconds=1800.03) assert mark.name == "video end" def test_from_line_invalid_two_spaces_in_name(): with pytest.raises(TypeError): Mark.from_line(" 1 0:00.03 video start") def test_from_line_invalid_one_space_after_time(): with pytest.raises(TypeError): Mark.from_line(" 1 0:00.03 video start") def test_from_line_invalid_one_space_after_frame(): with pytest.raises(TypeError): Mark.from_line(" 1 0:00.03 video start") def test_from_line_invalid_time_no_period(): with pytest.raises(TypeError): Mark.from_line(" 1 0:00:03 video start") def test_from_line_invalid_time_two_periods(): with pytest.raises(TypeError): Mark.from_line(" 1 0.00.03 video start") def test_from_line_invalid_time_one_middle_digit(): with pytest.raises(TypeError): Mark.from_line(" 1 0:0.03 video start") def test_from_line_valid_negative_frame(): Mark.from_line(" -1 0:00.03 video start") def test_from_line_valid_time_negative(): Mark.from_line(" 1 -0:00.03 video start") def test_from_line_invalid_frame_nonnumeric(): with pytest.raises(TypeError): Mark.from_line(" a1 0:00.03 video start") def test_from_line_invalid_time_nonnumeric(): with pytest.raises(TypeError): Mark.from_line(" 1 0:a00.03 video start") def test_from_line_invalid_name(): with pytest.raises(TypeError): Mark.from_line(" 1 0:00.03 video start!") def test_from_line_valid_long_time(): mark = Mark.from_line(" 1 01:20:04.03 video start") assert mark.frame == 1 assert mark.time == timedelta(seconds=(1 * 60 * 60 + 20 * 60 + 4.03)) assert mark.name == "video start" def test_init_valid_start(): mark = Mark(1, timedelta(seconds=0.03), "video start") assert mark.frame == 1 assert mark.time == timedelta(seconds=0.03) assert mark.name == "video start" def test_init_valid_end(): mark = Mark(54001, timedelta(seconds=(30 * 60 + 0.03)), "video end") assert mark.frame == 54001 assert mark.time == timedelta(seconds=(30 * 60 + 0.03)) assert mark.name == "video end" def test_init_valid_long_time(): mark = Mark(1, timedelta(seconds=(1 * 60 * 60 + 20 * 60 + 4.03)), "video start") assert mark.frame == 1 assert mark.time == timedelta(seconds=(1 * 60 * 60 + 20 * 60 + 4.03)) assert mark.name == "video start" def test_to_line_valid_start_end_is_template(): start = " 1 0:00.03 video start" end = "54001 30:00.03 video end" mark = Mark.from_line(start) assert mark.to_line(end) == start def test_to_line_valid_end_start_is_template(): start = " 1 0:00.03 video start" end = "54001 30:00.03 video end" mark = Mark.from_line(end) assert mark.to_line(start) == end def test_to_line_valid_hours(): temp = " 54001 30:00.03 video end" mark = Mark(17, timedelta(seconds=3650.05), "weird mark") assert mark.to_line(temp) == " 17 1:00:50.05 weird mark" def test_to_line_valid_secs(): temp = " 54001 30:00.03 video end" mark = Mark(17, timedelta(seconds=4.05), "weird mark") assert mark.to_line(temp) == " 17 0:04.05 weird mark" def test_to_line_valid_microsecs(): temp = " 54001 30:00.03 video end" mark = Mark(17, timedelta(seconds=0.05), "weird mark") assert mark.to_line(temp) == " 17 0:00.05 weird mark" def test_to_line_valid_long_frame(): temp = " 54001 30:00.03 video end" mark = Mark(143063, timedelta(seconds=4.05), "weird mark") assert mark.to_line(temp) == "143063 0:04.05 weird mark" def test_to_line_valid_one_word_name(): temp = " 54001 30:00.03 video end" mark = Mark(17, timedelta(seconds=4.05), "mark") assert mark.to_line(temp) == " 17 0:04.05 mark" def test_to_line_valid_one_word_name_in_template(): temp = " 54001 30:00.03 videoend" mark = Mark(17, timedelta(seconds=4.05), "weird mark") assert mark.to_line(temp) == " 17 0:04.05 weird mark" def test_to_line_valid_long_frame_in_template(): temp = "154001 30:00.03 video end" mark = Mark(17, timedelta(seconds=4.05), "weird mark") assert mark.to_line(temp) == " 17 0:04.05 weird mark" def test_to_line_invalid_template_1_space_after_frame(): with pytest.raises(ValueError): mark = Mark(1, timedelta(seconds=1), "mark") mark.to_line(" 1 0:00.03 video start") def test_to_line_invalid_template_1_space_after_time(): with pytest.raises(ValueError): mark = Mark(1, timedelta(seconds=1), "mark") mark.to_line(" 1 0:00.03 video start") def test_to_line_invalid_time_over_1_day(): with pytest.raises(ValueError): mark = Mark(17, timedelta(days=1.05), "weird mark") mark.to_line(" 54001 30:00.03 video end") def test_to_line_valid_remove_leading_zero_minutes(): temp = " 54001 30:00.03 video end" mark = Mark(17, timedelta(seconds=61.05), "weird mark") assert mark.to_line(temp) == " 17 1:01.05 weird mark" def test_to_line_valid_remove_leading_zero_hours(): temp = " 54001 30:00.03 video end" mark = Mark(17, timedelta(seconds=3601.05), "weird mark") assert mark.to_line(temp) == " 17 1:00:01.05 weird mark" def test_lt_frame_positive(): first = Mark.from_line(" 1 0:00.03 video start") second = Mark.from_line(" 2 0:00.03 video start") assert first < second def test_lt_frame_negative(): first = Mark.from_line(" -2 0:00.03 video start") second = Mark.from_line(" -1 0:00.03 video start") assert first < second def test_lt_frame_both_signs(): first = Mark.from_line(" -1 0:00.03 video start") second = Mark.from_line(" 1 0:00.03 video start") assert first < second def test_lt_time_positive(): first = Mark.from_line(" 1 0:00.03 video start") second = Mark.from_line(" 1 0:05.00 video start") assert first < second def test_lt_time_negative(): first = Mark.from_line(" 1 -0:05.00 video start") second = Mark.from_line(" 1 -0:00.03 video start") assert first < second def test_lt_time_both_signs(): first = Mark.from_line(" 1 -0:00.03 video start") second = Mark.from_line(" 1 0:00.03 video start") assert first < second def test_lt_name(): first = Mark.from_line(" 1 0:00.03 a video starts") second = Mark.from_line(" 1 0:00.03 video start") assert first < second def test_lt_name_lexicographic(): first = Mark.from_line(" 1 0:00.03 A video starts") second = Mark.from_line(" 1 0:00.03 video starts") assert first < second def test_lt_equal(): first = Mark.from_line(" 1 0:00.03 A video starts") second = Mark.from_line(" 1 0:00.03 A video starts") assert first >= second
30.337209
76
0.638942
1,207
7,827
3.932891
0.094449
0.080893
0.072046
0.07668
0.876343
0.839267
0.798188
0.787866
0.725722
0.662524
0
0.098109
0.243388
7,827
257
77
30.455253
0.703479
0.027597
0
0.427673
0
0
0.264439
0
0
0
0
0
0.238994
1
0.251572
false
0
0.018868
0
0.27044
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
0
0
0
0
0
0
7
de262bed6c5027f229c60be06dc03acdaf77ece2
18,678
py
Python
sohu_matching/src/data.py
MingjieWang0606/2021-Sohu-Text-Matching-TOP2
830a286cc978cb285cb63ae5a457e1d3813fa68a
[ "MIT" ]
5
2021-06-20T05:06:53.000Z
2022-03-28T16:33:31.000Z
sohu_matching/src/data.py
MingjieWang0606/2021-Sohu-Text-Matching-TOP2
830a286cc978cb285cb63ae5a457e1d3813fa68a
[ "MIT" ]
null
null
null
sohu_matching/src/data.py
MingjieWang0606/2021-Sohu-Text-Matching-TOP2
830a286cc978cb285cb63ae5a457e1d3813fa68a
[ "MIT" ]
2
2021-09-14T01:33:22.000Z
2021-12-09T03:41:40.000Z
import pandas as pd import torch from torch.utils.data import Dataset, DataLoader from transformers import BertTokenizer, AutoTokenizer from utils import * from sklearn.model_selection import train_test_split import json from tqdm import tqdm class SentencePairDataset(Dataset): def __init__(self, file_dir, is_train, pretrained, shuffle_order=False, aug_data=False, len_limit=512, clip='tail'): self.is_train = is_train self.shuffle_order = shuffle_order self.aug_data = aug_data self.total_input_ids = [] self.total_input_types = [] # use AutoTokenzier instead of BertTokenizer to support speice.model (AlbertTokenizer-like) tokenizer = AutoTokenizer.from_pretrained(pretrained) # read json lines and convert to dict / df json_lines = [] for single_file_dir in file_dir: with open(single_file_dir, 'r', encoding='utf-8') as f_in: json_lines += [line.strip() for line in f_in.readlines()] lines = [json.loads(line) for line in json_lines] content = pd.DataFrame(lines) content.columns = ['source', 'target', 'label'] # utilize labelB=1-->A positive, labelA=0-->B negative if self.is_train and self.aug_data: content = augment_data(content) sources = content['source'].values.tolist() targets = content['target'].values.tolist() if self.is_train: self.labels = content['label'].values.tolist() else: self.ids = content['label'].values.tolist() # shuffle_order is only allowed for training mode if self.shuffle_order and self.is_train: sources += content['target'].values.tolist() targets += content['source'].values.tolist() self.labels += self.labels len_limit_s = (len_limit-3)//2 len_limit_t = (len_limit-3)-len_limit_s # print('len_limit_s: ', len_limit_s) # print('len_limit_t: ', len_limit_t) for source, target in tqdm(zip(sources, targets), total=len(sources)): # tokenize before clipping source = tokenizer.encode(source)[1:-1] target = tokenizer.encode(target)[1:-1] # clip the sentences if too long # TODO: different strategies to clip long sequences if clip == 'head' and len(source)+len(target)+3 > len_limit: if len(source)>len_limit_s and len(target)>len_limit_t: source = source[0:len_limit_s] target = target[0:len_limit_t] elif len(source)>len_limit_s: source = source[0:len_limit-3-len(target)] elif len(target)>len_limit_t: target = target[0:len_limit-3-len(source)] if clip == 'tail' and len(source)+len(target)+3 > len_limit: if len(source)>len_limit_s and len(target)>len_limit_t: source = source[-len_limit_s:] target = target[-len_limit_t:] elif len(source)>len_limit_s: source = source[-(len_limit-3-len(target)):] elif len(target)>len_limit_t: target = target[-(len_limit-3-len(source)):] assert len(source)+len(target)+3 <= len_limit # [CLS]:101, [SEP]:102 input_ids = [101] + source + [102] + target + [102] input_types = [0]*(len(source)+2) + [1]*(len(target)+1) assert len(input_ids) <= len_limit and len(input_types) <= len_limit self.total_input_ids.append(input_ids) self.total_input_types.append(input_types) self.max_input_len = max([len(s) for s in self.total_input_ids]) print("max length: ", self.max_input_len) def __len__(self): return len(self.total_input_ids) def __getitem__(self, idx): if self.is_train: input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len) input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len) label = int(self.labels[idx]) # print(len(input_ids), len(input_types), label) return torch.LongTensor(input_ids), torch.LongTensor(input_types), torch.LongTensor([label]) else: input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len) input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len) index = self.ids[idx] return torch.LongTensor(input_ids), torch.LongTensor(input_types), index class SentencePairDatasetForSBERT(Dataset): def __init__(self, file_dir, is_train, pretrained, shuffle_order=False, aug_data=False, len_limit=512, clip='head'): self.is_train = is_train self.shuffle_order = shuffle_order self.aug_data = aug_data self.total_source_input_ids = [] # token_types are no longer neccessary if not concat into one text # self.total_source_input_types = [] self.total_target_input_ids = [] # self.total_target_input_types = [] self.sample_types = [] # use AutoTokenzier instead of BertTokenizer to support speice.model (AlbertTokenizer-like) tokenizer = AutoTokenizer.from_pretrained(pretrained) lines = [] for single_file_dir in file_dir: with open(single_file_dir, 'r', encoding='utf-8') as f_in: content = f_in.readlines() for item in content: line = json.loads(item.strip()) # BUG FIXED, order MATTERS! # mannually add key 'type' to distinguish the origin of samples # 0 for A, 1 for B if 'A' in single_file_dir: if self.is_train: line['label'] = line.pop('labelA') line['type'] = 0 else: if self.is_train: line['label'] = line.pop('labelB') line['type'] = 1 lines.append(line) content = pd.DataFrame(lines) # print(content.head()) content.columns = ['source', 'target', 'label', 'type'] # utilize labelB=1-->A positive, labelA=0-->B negative if self.is_train and self.aug_data: content = augment_data(content) sources = content['source'].values.tolist() targets = content['target'].values.tolist() self.sample_types = content['type'].values.tolist() if self.is_train: self.labels = content['label'].values.tolist() else: self.ids = content['label'].values.tolist() # shuffle_order is only allowed for training mode if self.shuffle_order and self.is_train: sources += content['target'].values.tolist() targets += content['source'].values.tolist() self.labels += self.labels self.sample_types += self.sample_types for source, target in tqdm(zip(sources, targets), total=len(sources)): # tokenize before clipping source = tokenizer.encode(source)[1:-1] target = tokenizer.encode(target)[1:-1] # clip the sentences if too long # TODO: different strategies to clip long sequences if clip == 'head': if len(source)+2 > len_limit: source = source[0: len_limit-2] if len(target)+2 > len_limit: target = target[0: len_limit-2] if clip == 'tail': if len(source)+2 > len_limit: source = source[-len_limit+2:] if len(target)+2 > len_limit: target = target[-len_limit+2:] # check if the length is within the limit assert len(source)+2 <= len_limit and len(target)+2 <= len_limit # [CLS]:101, [SEP]:102 source_input_ids = [101] + source + [102] # source_input_types = [0]*(len(source)+2) target_input_ids = [101] + target + [102] # target_input_types = [0]*(len(target)+2) assert len(source_input_ids) <= len_limit and len(target_input_ids) <= len_limit # assert len(source_input_types) <= len_limit and len(target_input_types) <= len_limit self.total_source_input_ids.append(source_input_ids) # self.total_source_input_types.append(source_input_types) self.total_target_input_ids.append(target_input_ids) # self.total_target_input_types.append(target_input_types) self.max_source_input_len = max([len(s) for s in self.total_source_input_ids]) self.max_target_input_len = max([len(s) for s in self.total_target_input_ids]) print("max source length: ", self.max_source_input_len) print("max target length: ", self.max_target_input_len) def __len__(self): return len(self.total_target_input_ids) def __getitem__(self, idx): source_input_ids = pad_to_maxlen(self.total_source_input_ids[idx], self.max_source_input_len) # source_input_types = pad_to_maxlen(self.total_source_input_types[idx], self.max_source_input_len) target_input_ids = pad_to_maxlen(self.total_target_input_ids[idx], self.max_target_input_len) # target_input_types = pad_to_maxlen(self.total_target_input_types[idx], self.max_target_input_len) sample_type = int(self.sample_types[idx]) if self.is_train: label = int(self.labels[idx]) return torch.LongTensor(source_input_ids), torch.LongTensor(target_input_ids), torch.LongTensor([label]), sample_type else: index = self.ids[idx] return torch.LongTensor(source_input_ids), torch.LongTensor(target_input_ids), index, sample_type class SentencePairDatasetWithType(Dataset): def __init__(self, file_dir, is_train, pretrained, shuffle_order=False, aug_data=False, len_limit=512, clip='head'): self.is_train = is_train self.shuffle_order = shuffle_order self.aug_data = aug_data self.total_input_ids = [] self.total_input_types = [] self.sample_types = [] # use AutoTokenzier instead of BertTokenizer to support speice.model (AlbertTokenizer-like) tokenizer = AutoTokenizer.from_pretrained(pretrained) # read json lines and convert to dict / df lines = [] for single_file_dir in file_dir: with open(single_file_dir, 'r', encoding='utf-8') as f_in: content = f_in.readlines() for item in content: line = json.loads(item.strip()) # BUG FIXED, order MATTERS! # mannually add key 'type' to distinguish the origin of samples # 0 for A, 1 for B if 'A' in single_file_dir: if self.is_train: line['label'] = line.pop('labelA') line['type'] = 0 else: if self.is_train: line['label'] = line.pop('labelB') line['type'] = 1 lines.append(line) print(single_file_dir, len(lines)) content = pd.DataFrame(lines) # print(content.head()) content.columns = ['source', 'target', 'label', 'type'] # utilize labelB=1-->A positive, labelA=0-->B negative if self.is_train and self.aug_data: print("augmenting data...") content = augment_data(content) sources = content['source'].values.tolist() targets = content['target'].values.tolist() self.sample_types = content['type'].values.tolist() if self.is_train: self.labels = content['label'].values.tolist() else: self.ids = content['label'].values.tolist() # shuffle_order is only allowed for training mode if self.shuffle_order and self.is_train: sources += content['target'].values.tolist() targets += content['source'].values.tolist() self.labels += self.labels self.sample_types += self.sample_types len_limit_s = (len_limit-3)//2 len_limit_t = (len_limit-3)-len_limit_s # print('len_limit_s: ', len_limit_s) # print('len_limit_t: ', len_limit_t) for source, target in tqdm(zip(sources, targets), total=len(sources)): # tokenize before clipping source = tokenizer.encode(source)[1:-1] target = tokenizer.encode(target)[1:-1] # clip the sentences if too long # TODO: different strategies to clip long sequences if clip == 'head' and len(source)+len(target)+3 > len_limit: if len(source)>len_limit_s and len(target)>len_limit_t: source = source[0:len_limit_s] target = target[0:len_limit_t] elif len(source)>len_limit_s: source = source[0:len_limit-3-len(target)] elif len(target)>len_limit_t: target = target[0:len_limit-3-len(source)] if clip == 'tail' and len(source)+len(target)+3 > len_limit: if len(source)>len_limit_s and len(target)>len_limit_t: source = source[-len_limit_s:] target = target[-len_limit_t:] elif len(source)>len_limit_s: source = source[-(len_limit-3-len(target)):] elif len(target)>len_limit_t: target = target[-(len_limit-3-len(source)):] # check if the total length is within the limit assert len(source)+len(target)+3 <= len_limit # [CLS]:101, [SEP]:102 input_ids = [101] + source + [102] + target + [102] input_types = [0]*(len(source)+2) + [1]*(len(target)+1) assert len(input_ids) <= len_limit and len(input_types) <= len_limit self.total_input_ids.append(input_ids) self.total_input_types.append(input_types) self.max_input_len = max([len(s) for s in self.total_input_ids]) print("max length: ", self.max_input_len) def __len__(self): return len(self.total_input_ids) def __getitem__(self, idx): if self.is_train: input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len) input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len) label = int(self.labels[idx]) sample_type = int(self.sample_types[idx]) # print(len(input_ids), len(input_types), label) return torch.LongTensor(input_ids), torch.LongTensor(input_types), torch.LongTensor([label]), sample_type else: input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len) input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len) index = self.ids[idx] sample_type = int(self.sample_types[idx]) return torch.LongTensor(input_ids), torch.LongTensor(input_types), index, sample_type if __name__ == '__main__': data_dir = '../data/sohu2021_open_data/' task_a = ['短短匹配A类', '短长匹配A类', '长长匹配A类'] task_b = ['短短匹配B类', '短长匹配B类', '长长匹配B类'] train_data_dir = [] for task in task_a: train_data_dir.append(data_dir + task + '/train.txt') train_data_dir.append(data_dir + task + '/train_r2.txt') print(train_data_dir) train_data_dir = ['../data/sohu2021_open_data/短短匹配A类/valid.txt', '../data/sohu2021_open_data/短短匹配B类/valid.txt'] test_data_dir = ['../data/sohu2021_open_data/短短匹配A类/test_with_id.txt', '../data/sohu2021_open_data/短短匹配B类/test_with_id.txt'] pretrained = '/data1/wangchenyue/Downloads/bert-base-chinese/' tokenizer = BertTokenizer.from_pretrained(pretrained) print("loading bert tokenizer successfully") print("Testing dataset for SentencePairDatasetWithType") train_dataset = SentencePairDatasetWithType(file_dir=train_data_dir, is_train=True, pretrained=pretrained, aug_data=False) print(len(train_dataset)) for idx in range(10): print(train_dataset[idx][-2]) test_dataset = SentencePairDatasetWithType(file_dir=test_data_dir, is_train=False, pretrained=pretrained) print(len(test_dataset)) # for idx in range(1): # print(test_dataset[idx]) # print("Testing dataloader for SentencePairDatasetWithType") # train_dataloader = DataLoader(train_dataset, batch_size=64, shuffle=True) # for idx, batch in enumerate(train_dataloader): # input_ids, input_types, labels, types = batch # total_ids_a, total_ids_b = [], [] # test_dataloader = DataLoader(test_dataset, batch_size=64, shuffle=False) # for idx, batch in enumerate(test_dataloader): # input_ids, input_types, ids, types = batch # mask_a, mask_b = (types==0).numpy(), (types==1).numpy() # total_ids_a += [id for id in ids if id.endswith('a')] # total_ids_b += [id for id in ids if id.endswith('b')] # 0504, SentencePairDatasetForSBERT # print("Testing dataset for SentencePairDatasetForSBERT") # train_dataset = SentencePairDatasetForSBERT(file_dir=train_data_dir, is_train=True, pretrained=pretrained, shuffle_order=False) # for idx in range(1): # print(train_dataset[idx]) # test_dataset = SentencePairDatasetForSBERT(file_dir=test_data_dir, is_train=False, pretrained=pretrained) # for idx in range(1): # print(test_dataset[idx]) # print("Testing dataloader for SentencePairDatasetForSBERT") # train_dataloader = DataLoader(train_dataset, batch_size=64, shuffle=True) # for idx, batch in enumerate(train_dataloader): # source_input_ids, target_input_types, labels, types = batch # total_ids_a, total_ids_b = [], [] # test_dataloader = DataLoader(test_dataset, batch_size=64, shuffle=False) # for idx, batch in enumerate(test_dataloader): # source_input_ids, target_input_types, ids, types = batch # mask_a, mask_b = (types==0).numpy(), (types==1).numpy() # total_ids_a += [id for id in ids if id.endswith('a')] # total_ids_b += [id for id in ids if id.endswith('b')]
44.791367
133
0.609166
2,367
18,678
4.548796
0.08365
0.057212
0.026005
0.015696
0.8631
0.8292
0.792979
0.76428
0.72908
0.725736
0
0.013556
0.281186
18,678
417
134
44.791367
0.788396
0.211265
0
0.745174
0
0
0.052829
0.019589
0
0
0
0.002398
0.023166
1
0.034749
false
0
0.030888
0.011583
0.111969
0.046332
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
de2d0a75220cadd10b4a09832e7fec500a934829
17,625
py
Python
python/tests/test_ppo.py
YuMurata/my_ml_rl
a76711175fb85a390543b742fd5b978a8a5d9aa0
[ "Apache-2.0" ]
null
null
null
python/tests/test_ppo.py
YuMurata/my_ml_rl
a76711175fb85a390543b742fd5b978a8a5d9aa0
[ "Apache-2.0" ]
null
null
null
python/tests/test_ppo.py
YuMurata/my_ml_rl
a76711175fb85a390543b742fd5b978a8a5d9aa0
[ "Apache-2.0" ]
null
null
null
import unittest.mock as mock import pytest import numpy as np import tensorflow as tf from unitytrainers.ppo.models import PPOModel <<<<<<< HEAD from unityagents import UnityEnvironment def test_ppo_model_continuous(): c_action_c_state_start = '''{ "AcademyName": "RealFakeAcademy", "resetParameters": {}, "brainNames": ["RealFakeBrain"], "externalBrainNames": ["RealFakeBrain"], "logPath":"RealFakePath", "apiNumber":"API-3", "brainParameters": [{ "vectorObservationSize": 3, "numStackedVectorObservations": 2, "vectorActionSize": 2, "memorySize": 0, "cameraResolutions": [], "vectorActionDescriptions": ["",""], "vectorActionSpaceType": 1, "vectorObservationSpaceType": 1 }] }'''.encode() tf.reset_default_graph() with mock.patch('subprocess.Popen'): with mock.patch('socket.socket') as mock_socket: with mock.patch('glob.glob') as mock_glob: # End of mock with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_glob.return_value = ['FakeLaunchPath'] mock_socket.return_value.accept.return_value = (mock_socket, 0) mock_socket.recv.return_value.decode.return_value = c_action_c_state_start env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"]) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.probs, model.value, model.entropy, model.learning_rate] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]])} sess.run(run_list, feed_dict=feed_dict) env.close() def test_ppo_model_discrete(): d_action_c_state_start = '''{ "AcademyName": "RealFakeAcademy", "resetParameters": {}, "brainNames": ["RealFakeBrain"], "externalBrainNames": ["RealFakeBrain"], "logPath":"RealFakePath", "apiNumber":"API-3", "brainParameters": [{ "vectorObservationSize": 3, "numStackedVectorObservations": 2, "vectorActionSize": 2, "memorySize": 0, "cameraResolutions": [{"width":30,"height":40,"blackAndWhite":false}], "vectorActionDescriptions": ["",""], "vectorActionSpaceType": 0, "vectorObservationSpaceType": 1 }] }'''.encode() tf.reset_default_graph() with mock.patch('subprocess.Popen'): with mock.patch('socket.socket') as mock_socket: with mock.patch('glob.glob') as mock_glob: # End of mock with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_glob.return_value = ['FakeLaunchPath'] mock_socket.return_value.accept.return_value = (mock_socket, 0) mock_socket.recv.return_value.decode.return_value = d_action_c_state_start env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"]) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.visual_in[0]: np.ones([2, 40, 30, 3]) } sess.run(run_list, feed_dict=feed_dict) env.close() ======= from unitytrainers.ppo.trainer import discount_rewards from unityagents import UnityEnvironment from .mock_communicator import MockCommunicator @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_cc_vector(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=False, visual_inputs=0) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"]) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.probs, model.value, model.entropy, model.learning_rate] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]])} sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_cc_visual(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=False, visual_inputs=2) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"]) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.probs, model.value, model.entropy, model.learning_rate] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.visual_in[0]: np.ones([2, 40, 30, 3]), model.visual_in[1]: np.ones([2, 40, 30, 3])} sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_dc_visual(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=True, visual_inputs=2) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"]) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.visual_in[0]: np.ones([2, 40, 30, 3]), model.visual_in[1]: np.ones([2, 40, 30, 3]) } sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_dc_vector(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=True, visual_inputs=0) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"]) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]])} sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_dc_vector_rnn(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=True, visual_inputs=0) env = UnityEnvironment(' ') memory_size = 128 model = PPOModel(env.brains["RealFakeBrain"], use_recurrent=True, m_size=memory_size) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate, model.memory_out] feed_dict = {model.batch_size: 1, model.sequence_length: 2, model.prev_action: [0, 0], model.memory_in: np.zeros((1, memory_size)), model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]])} sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_cc_vector_rnn(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=False, visual_inputs=0) env = UnityEnvironment(' ') memory_size = 128 model = PPOModel(env.brains["RealFakeBrain"], use_recurrent=True, m_size=memory_size) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate, model.memory_out] feed_dict = {model.batch_size: 1, model.sequence_length: 2, model.memory_in: np.zeros((1, memory_size)), model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]])} sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_dc_vector_curio(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=True, visual_inputs=0) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate, model.intrinsic_reward] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.action_holder: [0, 0]} sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_cc_vector_curio(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=False, visual_inputs=0) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate, model.intrinsic_reward] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.output: [[0.0, 0.0], [0.0, 0.0]]} sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_dc_visual_curio(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=True, visual_inputs=2) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate, model.intrinsic_reward] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.action_holder: [0, 0], model.visual_in[0]: np.ones([2, 40, 30, 3]), model.visual_in[1]: np.ones([2, 40, 30, 3]), model.next_visual_in[0]: np.ones([2, 40, 30, 3]), model.next_visual_in[1]: np.ones([2, 40, 30, 3]) } sess.run(run_list, feed_dict=feed_dict) env.close() @mock.patch('unityagents.UnityEnvironment.executable_launcher') @mock.patch('unityagents.UnityEnvironment.get_communicator') def test_ppo_model_cc_visual_curio(mock_communicator, mock_launcher): tf.reset_default_graph() with tf.Session() as sess: with tf.variable_scope("FakeGraphScope"): mock_communicator.return_value = MockCommunicator( discrete_action=False, visual_inputs=2) env = UnityEnvironment(' ') model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True) init = tf.global_variables_initializer() sess.run(init) run_list = [model.output, model.all_probs, model.value, model.entropy, model.learning_rate, model.intrinsic_reward] feed_dict = {model.batch_size: 2, model.sequence_length: 1, model.vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3], [3, 4, 5, 3, 4, 5]]), model.output: [[0.0, 0.0], [0.0, 0.0]], model.visual_in[0]: np.ones([2, 40, 30, 3]), model.visual_in[1]: np.ones([2, 40, 30, 3]), model.next_visual_in[0]: np.ones([2, 40, 30, 3]), model.next_visual_in[1]: np.ones([2, 40, 30, 3]) } sess.run(run_list, feed_dict=feed_dict) env.close() def test_rl_functions(): rewards = np.array([0.0, 0.0, 0.0, 1.0]) gamma = 0.9 returns = discount_rewards(rewards, gamma, 0.0) np.testing.assert_array_almost_equal(returns, np.array([0.729, 0.81, 0.9, 1.0])) >>>>>>> 1ead1ccc2c842bd00a372eee5c4a47e429432712 if __name__ == '__main__': pytest.main()
46.018277
98
0.543716
1,876
17,625
4.88806
0.079424
0.031407
0.010469
0.078517
0.92988
0.929444
0.92879
0.92879
0.92879
0.92879
0
0.035705
0.342128
17,625
382
99
46.138743
0.755153
0.001305
0
0.852853
0
0
0.145349
0.076198
0
0
0
0
0.003003
0
null
null
0
0.027027
null
null
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
1
0
0
0
0
0
0
0
0
8
de5e6b38945ceb4ad74e403f644b4878cb7a673b
23,918
py
Python
RumourEval2019Models/Bert-MFajcik/task_A/datasets/RumourEvalDataset_BERT.py
isspek/veracity-detection
9368309722bead209e49e52c206758e3d173092a
[ "MIT" ]
null
null
null
RumourEval2019Models/Bert-MFajcik/task_A/datasets/RumourEvalDataset_BERT.py
isspek/veracity-detection
9368309722bead209e49e52c206758e3d173092a
[ "MIT" ]
null
null
null
RumourEval2019Models/Bert-MFajcik/task_A/datasets/RumourEvalDataset_BERT.py
isspek/veracity-detection
9368309722bead209e49e52c206758e3d173092a
[ "MIT" ]
null
null
null
__author__ = "Martin Fajčík" import json import torch import torchtext as tt from typing import List, Tuple from pytorch_pretrained_bert import BertTokenizer from torchtext.data import Example from vaderSentiment.vaderSentiment import SentimentIntensityAnalyzer """ This file contains implementation of Bert-MFajcik datasets extending torchtext.data.Dataset class """ class RumourEval2019Dataset_BERTTriplets(tt.data.Dataset): """ Creates dataset, where each example is composed as triplet: (source post, previous post, target post) """ def __init__(self, path: str, fields: List[Tuple[str, tt.data.Field]], tokenizer: BertTokenizer, max_length: int = 512, include_features=False, **kwargs): max_length = max_length - 3 # Count without special tokens sentiment_analyser = SentimentIntensityAnalyzer() with open(path) as dataf: data_json = json.load(dataf) examples = [] # Each input needs to have at most 2 segments # We will create following input # - [CLS] source post, previous post [SEP] choice_1 [SEP] for example in data_json["Examples"]: make_ids = lambda x: tokenizer.convert_tokens_to_ids(tokenizer.tokenize(x)) text = make_ids(example["spacy_processed_text"]) prev = make_ids(example["spacy_processed_text_prev"]) src = make_ids(example["spacy_processed_text_src"]) segment_A = src + prev segment_B = text text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] # truncate if exceeds max length if len(text_ids) > max_length: # Truncate segment A segment_A = segment_A[:max_length // 2] text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] if len(text_ids) > max_length: # Truncate also segment B segment_B = segment_B[:max_length // 2] text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] segment_ids = [0] * (len(segment_A) + 2) + [1] * (len(segment_B) + 1) input_mask = [1] * len(segment_ids) if include_features: example_list = list(example.values()) + [text_ids, segment_ids, input_mask] else: sentiment = sentiment_analyser.polarity_scores(example["raw_text"]) example_list = [example["id"], example["branch_id"], example["tweet_id"], example["stance_label"], example["veracity_label"], "\n-----------\n".join( [example["raw_text_src"], example["raw_text_prev"], example["raw_text"]]), example["issource"], sentiment["pos"], sentiment["neu"], sentiment["neg"]] + [ text_ids, segment_ids, input_mask] examples.append(Example.fromlist(example_list, fields)) super(RumourEval2019Dataset_BERTTriplets, self).__init__(examples, fields, **kwargs) @staticmethod def prepare_fields_for_text(): """ BERT [PAD] token has index 0 """ text_field = lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0) return [ ('id', tt.data.RawField()), ('branch_id', tt.data.RawField()), ('tweet_id', tt.data.RawField()), ('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('raw_text', tt.data.RawField()), ('issource', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('sentiment_pos', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('sentiment_neu', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('sentiment_neg', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('text', text_field()), ('type_mask', text_field()), ('input_mask', text_field())] @staticmethod def prepare_fields_for_f_and_text( text_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0), float_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=False, dtype=torch.float)): return [ ('avgw2v', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True)), ('hasnegation', float_field()), ('hasswearwords', float_field()), ('capitalratio', float_field()), ('hasperiod', float_field()), ('hasqmark', float_field()), ('hasemark', float_field()), ('hasurl', float_field()), ('haspic', float_field()), ('charcount', float_field()), ('wordcount', float_field()), ('issource', float_field()), ('Word2VecSimilarityWrtOther', float_field()), ('Word2VecSimilarityWrtSource', float_field()), ('Word2VecSimilarityWrtPrev', float_field()), ('raw_text', tt.data.RawField()), ('spacy_processed_text', tt.data.RawField()), ('spacy_processed_BLvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_POSvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_DEPvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_NERvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('src_num_false_synonyms', float_field()), ('src_num_false_antonyms', float_field()), ('thread_num_false_synonyms', float_field()), ('thread_num_false_antonyms', float_field()), ('src_unconfirmed', float_field()), ('src_rumour', float_field()), ('thread_unconfirmed', float_field()), ('thread_rumour', float_field()), ('src_num_wh', float_field()), ('thread_num_wh', float_field()), ('id', tt.data.RawField()), ('branch_id', tt.data.RawField()), ('tweet_id', tt.data.RawField()), ('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('raw_text_prev', tt.data.RawField()), ('raw_text_src', tt.data.RawField()), ('spacy_processed_text_prev', tt.data.RawField()), ('spacy_processed_text_src', tt.data.RawField()), ('text', text_field()), ('type_mask', text_field()), ('input_mask', text_field()) ] class RumourEval2019Dataset_BERTTriplets_with_Tags(tt.data.Dataset): """ Creates dataset similar to RumourEval2019Dataset_BERTTriplets, but this one also contains word-level POS/NER/DEP tags """ def __init__(self, path: str, fields: List[Tuple[str, tt.data.Field]], tokenizer: BertTokenizer, max_length: int = 512, include_features=False, **kwargs): max_length = max_length - 3 # Count without special tokens sentiment_analyser = SentimentIntensityAnalyzer() with open(path) as dataf: data_json = json.load(dataf) examples = [] # Each input needs to have at most 2 segments # We will create following input # - [CLS] source post, previous post [SEP] choice_1 [SEP] # more important parts are towards the end, usually, and they can be truncated for example in data_json["Examples"]: def make_ids_with_mapping(text): make_ids = lambda x: tokenizer.convert_tokens_to_ids(tokenizer.tokenize(x)) word_tokens = text.split() ids_mapping = {i: make_ids(w) for i, w in enumerate(word_tokens)} ids = [] for subwordindices in ids_mapping.values(): ids += subwordindices return ids_mapping, ids text_mapping, text = make_ids_with_mapping(example["spacy_processed_text"]) prev_mapping, prev = make_ids_with_mapping(example["spacy_processed_text_prev"]) src_mapping, src = make_ids_with_mapping(example["spacy_processed_text_src"]) segment_A = src + prev segment_B = text text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] NER_segment_B = [] for k, v in text_mapping.items(): for id in v: NER_segment_B.append(example['spacy_processed_NERvec'][k]) DEP_segment_B = [] for k, v in text_mapping.items(): for id in v: DEP_segment_B.append(example['spacy_processed_DEPvec'][k]) POS_segment_B = [] for k, v in text_mapping.items(): for id in v: POS_segment_B.append(example['spacy_processed_POSvec'][k]) # truncate if exceeds max length if len(text_ids) > max_length: # Truncate segment A segment_A = segment_A[:max_length // 2] text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] if len(text_ids) > max_length: # Truncate also segment B segment_B = segment_B[:max_length // 2] text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] NER_segment_B = NER_segment_B[:max_length // 2] DEP_segment_B = DEP_segment_B[:max_length // 2] POS_segment_B = POS_segment_B[:max_length // 2] NER_mask_ids = [0] * (len(segment_A) + 2) + NER_segment_B + [0] DEP_mask_ids = [0] * (len(segment_A) + 2) + DEP_segment_B + [0] POS_mask_ids = [0] * (len(segment_A) + 2) + POS_segment_B + [0] segment_ids = [0] * (len(segment_A) + 2) + [1] * (len(segment_B) + 1) # example_list = list(example.values())[:-3] + [text_ids, segment_ids] if include_features: example_list = list(example.values()) + [text_ids, segment_ids, NER_mask_ids] else: sentiment = sentiment_analyser.polarity_scores(example["raw_text"]) example_list = [example["id"], example["branch_id"], example["tweet_id"], example["stance_label"], example["veracity_label"], "\n-----------\n".join( [example["raw_text_src"], example["raw_text_prev"], example["raw_text"]]), example["issource"], sentiment["pos"], sentiment["neu"], sentiment["neg"]] + [ text_ids, segment_ids, NER_mask_ids, DEP_mask_ids, POS_mask_ids] examples.append(Example.fromlist(example_list, fields)) super(RumourEval2019Dataset_BERTTriplets_with_Tags, self).__init__(examples, fields, **kwargs) @staticmethod def prepare_fields_for_text(): """ BERT [PAD] token has index 0 """ text_field = lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0) return [ ('id', tt.data.RawField()), ('branch_id', tt.data.RawField()), ('tweet_id', tt.data.RawField()), ('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('raw_text', tt.data.RawField()), ('issource', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('sentiment_pos', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('sentiment_neu', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('sentiment_neg', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('text', text_field()), ('type_mask', text_field()), ('ner_mask', text_field()), ('dep_mask', text_field()), ('pos_mask', text_field())] @staticmethod def prepare_fields_for_f_and_text( text_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0), float_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=False, dtype=torch.float)): return [ ('avgw2v', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True)), ('hasnegation', float_field()), ('hasswearwords', float_field()), ('capitalratio', float_field()), ('hasperiod', float_field()), ('hasqmark', float_field()), ('hasemark', float_field()), ('hasurl', float_field()), ('haspic', float_field()), ('charcount', float_field()), ('wordcount', float_field()), ('issource', float_field()), ('Word2VecSimilarityWrtOther', float_field()), ('Word2VecSimilarityWrtSource', float_field()), ('Word2VecSimilarityWrtPrev', float_field()), ('raw_text', tt.data.RawField()), ('spacy_processed_text', tt.data.RawField()), ('spacy_processed_BLvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_POSvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_DEPvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_NERvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('src_num_false_synonyms', float_field()), ('src_num_false_antonyms', float_field()), ('thread_num_false_synonyms', float_field()), ('thread_num_false_antonyms', float_field()), ('src_unconfirmed', float_field()), ('src_rumour', float_field()), ('thread_unconfirmed', float_field()), ('thread_rumour', float_field()), ('src_num_wh', float_field()), ('thread_num_wh', float_field()), ('id', tt.data.RawField()), ('branch_id', tt.data.RawField()), ('tweet_id', tt.data.RawField()), ('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('raw_text_prev', tt.data.RawField()), ('raw_text_src', tt.data.RawField()), ('spacy_processed_text_prev', tt.data.RawField()), ('spacy_processed_text_src', tt.data.RawField()), ('text', text_field()), ('type_mask', text_field()), ('ner_mask', text_field()) ] class RumourEval2019Dataset_BERTTriplets_3Segments(tt.data.Dataset): """ Creates dataset similar to RumourEval2019Dataset_BERTTriplets, but this one separates src text and prev text via [SEP] token and different segment embedding """ def __init__(self, path: str, fields: List[Tuple[str, tt.data.Field]], tokenizer: BertTokenizer, max_length: int = 512, include_features=False, **kwargs): max_length = max_length - 3 # Count without special tokens with open(path) as dataf: data_json = json.load(dataf) examples = [] # Each input needs to have at most 2 segments # We will create following input # - [CLS] source post, previous post [SEP] choice_1 [SEP] for example in data_json["Examples"]: make_ids = lambda x: tokenizer.convert_tokens_to_ids(tokenizer.tokenize(x)) text = make_ids(example["spacy_processed_text"]) prev = make_ids(example["spacy_processed_text_prev"]) src = make_ids(example["spacy_processed_text_src"]) segment_A = src segment_C = prev segment_B = text text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] # truncate if exceeds max length if len(text_ids) > max_length: # Truncate segment A segment_C = segment_C[:max_length // 2] text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] if len(text_ids) > max_length: # Truncate segment A segment_A = segment_A[:max_length // 2] text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] if len(text_ids) > max_length: # Truncate also segment B segment_B = segment_B[:max_length // 2] text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \ [tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]] segment_ids = [0] * (len(segment_A) + 2) + [2] * (len(segment_C) + 1) + [1] * (len(segment_B) + 1) # example_list = list(example.values())[:-3] + [text_ids, segment_ids] if include_features: example_list = list(example.values()) + [text_ids, segment_ids] else: example_list = [example["id"], example["branch_id"], example["tweet_id"], example["stance_label"], example["veracity_label"], "\n-----------\n".join( [example["raw_text_src"], example["raw_text_prev"], example["raw_text"]]), example["issource"]] + [text_ids, segment_ids] examples.append(Example.fromlist(example_list, fields)) super(RumourEval2019Dataset_BERTTriplets_3Segments, self).__init__(examples, fields, **kwargs) @staticmethod def prepare_fields_for_text(): """ BERT [PAD] token has index 0 """ text_field = lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0) return [ ('id', tt.data.RawField()), ('branch_id', tt.data.RawField()), ('tweet_id', tt.data.RawField()), ('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('raw_text', tt.data.RawField()), ('issource', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)), ('text', text_field()), ('type_mask', text_field())] @staticmethod def prepare_fields_for_f_and_text( text_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0), float_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=False, dtype=torch.float)): return [ ('avgw2v', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True)), ('hasnegation', float_field()), ('hasswearwords', float_field()), ('capitalratio', float_field()), ('hasperiod', float_field()), ('hasqmark', float_field()), ('hasemark', float_field()), ('hasurl', float_field()), ('haspic', float_field()), ('charcount', float_field()), ('wordcount', float_field()), ('issource', float_field()), ('Word2VecSimilarityWrtOther', float_field()), ('Word2VecSimilarityWrtSource', float_field()), ('Word2VecSimilarityWrtPrev', float_field()), ('raw_text', tt.data.RawField()), ('spacy_processed_text', tt.data.RawField()), ('spacy_processed_BLvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_POSvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_DEPvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('spacy_processed_NERvec', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)), ('src_num_false_synonyms', float_field()), ('src_num_false_antonyms', float_field()), ('thread_num_false_synonyms', float_field()), ('thread_num_false_antonyms', float_field()), ('src_unconfirmed', float_field()), ('src_rumour', float_field()), ('thread_unconfirmed', float_field()), ('thread_rumour', float_field()), ('src_num_wh', float_field()), ('thread_num_wh', float_field()), ('id', tt.data.RawField()), ('branch_id', tt.data.RawField()), ('tweet_id', tt.data.RawField()), ('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)), ('raw_text_prev', tt.data.RawField()), ('raw_text_src', tt.data.RawField()), ('spacy_processed_text_prev', tt.data.RawField()), ('spacy_processed_text_src', tt.data.RawField()), ('text', text_field()), ('type_mask', text_field()) ]
54.235828
122
0.564554
2,598
23,918
4.907621
0.080447
0.042353
0.041412
0.036235
0.920392
0.914039
0.896
0.889725
0.888314
0.880941
0
0.007218
0.299147
23,918
440
123
54.359091
0.753385
0.058659
0
0.839888
0
0
0.133813
0.05109
0
0
0
0
0
1
0.02809
false
0
0.019663
0.008427
0.075843
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
de90667492bf46a11d12651dcbf18a0aa4a010d4
11,785
py
Python
app/test/integrationtest/test_executive_type.py
michalkoziara/IoT-RESTful-Webservice
ecb0f3e09cded3190f3646e5cd6c913056d94981
[ "bzip2-1.0.6" ]
2
2021-09-24T02:45:32.000Z
2021-11-15T09:44:44.000Z
app/test/integrationtest/test_executive_type.py
PKramek/IoT-RESTful-Webservice-1
ecb0f3e09cded3190f3646e5cd6c913056d94981
[ "bzip2-1.0.6" ]
null
null
null
app/test/integrationtest/test_executive_type.py
PKramek/IoT-RESTful-Webservice-1
ecb0f3e09cded3190f3646e5cd6c913056d94981
[ "bzip2-1.0.6" ]
1
2021-09-11T11:47:32.000Z
2021-09-11T11:47:32.000Z
import json from app.main.model.executive_type import ExecutiveType from app.main.repository.device_group_repository import DeviceGroupRepository from app.main.util.auth_utils import Auth from app.main.util.constants import Constants def test_get_executive_type_info_should_return_sensor_info_when_valid_request( client, insert_device_group, insert_user, get_user_group_default_values, insert_user_group, get_executive_type_default_values, insert_executive_type, insert_state_enumerator): content_type = 'application/json' device_group = insert_device_group() user = insert_user() user_group_values = get_user_group_default_values() user_group_values['users'] = [user] user_group = insert_user_group(user_group_values) device_group.user_groups = [user_group] DeviceGroupRepository.get_instance().update_database() executive_type_default_values = get_executive_type_default_values() executive_type_default_values['state_type'] = 'Enum' executive_type_default_values['default_state'] = 1 executive_type = insert_executive_type(executive_type_default_values) state_enumerator = insert_state_enumerator() response = client.get( '/api/hubs/' + device_group.product_key + '/executive-types/' + executive_type.name, content_type=content_type, headers={ 'Authorization': 'Bearer ' + Auth.encode_auth_token(user.id, False) } ) expected_returned_values = { 'name': executive_type.name, 'stateType': executive_type.state_type, 'stateRangeMin': executive_type.state_range_min, 'stateRangeMax': executive_type.state_range_max, 'enumerator': [ { 'number': state_enumerator.number, 'text': state_enumerator.text } ], 'defaultState': 'reading enumerator ' } assert response is not None assert response.status_code == 200 assert response.content_type == content_type response_data = json.loads(response.data.decode()) assert response_data is not None assert response_data == expected_returned_values def test_get_executive_type_info_should_return_sensor_info_when_valid_request_and_user_is_admin( client, insert_device_group, insert_admin, get_user_group_default_values, insert_user_group, get_executive_type_default_values, insert_executive_type, insert_state_enumerator): content_type = 'application/json' device_group = insert_device_group() admin = insert_admin() assert device_group.admin_id == admin.id user_group_values = get_user_group_default_values() user_group = insert_user_group(user_group_values) device_group.user_groups = [user_group] DeviceGroupRepository.get_instance().update_database() executive_type_default_values = get_executive_type_default_values() executive_type_default_values['state_type'] = 'Enum' executive_type_default_values['default_state'] = 1 executive_type = insert_executive_type(executive_type_default_values) state_enumerator = insert_state_enumerator() response = client.get( '/api/hubs/' + device_group.product_key + '/executive-types/' + executive_type.name, content_type=content_type, headers={ 'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True) } ) expected_returned_values = { 'name': executive_type.name, 'stateType': executive_type.state_type, 'stateRangeMin': executive_type.state_range_min, 'stateRangeMax': executive_type.state_range_max, 'enumerator': [ { 'number': state_enumerator.number, 'text': state_enumerator.text } ], 'defaultState': 'reading enumerator ' } assert response is not None assert response.status_code == 200 assert response.content_type == content_type response_data = json.loads(response.data.decode()) assert response_data is not None assert response_data == expected_returned_values def test_get_list_of_types_names_should_return_list_of_executive_types_names_when_valid_request( client, insert_device_group, insert_admin, get_executive_type_default_values, insert_executive_type): content_type = 'application/json' device_group = insert_device_group() admin = insert_admin() first_executive_type_values = get_executive_type_default_values() first_executive_type_values['name'] = 'first_sensor_type' insert_executive_type(first_executive_type_values) second_executive_type_values = get_executive_type_default_values() second_executive_type_values['name'] = 'second_sensor_type' second_executive_type_values['id'] += 1 insert_executive_type(second_executive_type_values) third_executive_type_values = get_executive_type_default_values() third_executive_type_values['name'] = 'third_sensor_type' third_executive_type_values['id'] += 2 insert_executive_type(third_executive_type_values) expected_values = ['first_sensor_type', 'second_sensor_type', 'third_sensor_type'] response = client.get( '/api/hubs/' + device_group.product_key + '/executive-types', content_type=content_type, headers={ 'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True) } ) assert response is not None assert response.status_code == 200 assert response.content_type == content_type response_data = json.loads(response.data.decode()) assert response_data is not None assert response_data == expected_values def test_get_list_of_types_names_should_return_error_message_when_admin_is_not_admin( client, insert_device_group, insert_admin, get_sensor_type_default_values, insert_sensor_type): content_type = 'application/json' device_group = insert_device_group() admin = insert_admin() response = client.get( '/api/hubs/' + device_group.product_key + '/executive-types', content_type=content_type, headers={ 'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, False) } ) assert response is not None assert response.status_code == 403 assert response.content_type == content_type response_data = json.loads(response.data.decode()) assert response_data is not None assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_USER_DOES_NOT_HAVE_PRIVILEGES def test_create_executive_type_should_create_executive_type_in_device_group_when_valid_request( client, insert_device_group, insert_admin): content_type = 'application/json' device_group = insert_device_group() admin = insert_admin() executive_type_name = 'test executive type name' response = client.post( '/api/hubs/' + device_group.product_key + '/executive-types', data=json.dumps( { "name": executive_type_name, "stateType": "Enum", "stateRangeMin": 0, "stateRangeMax": 1, "enumerator": [ { "number": 0, "text": "zero" }, { "number": 1, "text": "one" } ], 'defaultState': 1 } ), content_type=content_type, headers={ 'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True) } ) assert response assert response.status_code == 201 response_data = json.loads(response.data.decode()) assert not response_data executive_types = ExecutiveType.query.filter(ExecutiveType.name == executive_type_name).all() assert executive_types def test_create_executive_type_should_return_error_message_when_invalid_request( client, insert_device_group, insert_admin): content_type = 'application/json' device_group = insert_device_group() admin = insert_admin() executive_type_name = 'test executive type name' response = client.post( '/api/hubs/' + device_group.product_key + '/executive-types', data=json.dumps( { "name": executive_type_name, "stateType": "Enum", "stateRangeMin": 0, "stateRangeMax": 0, "enumerator": [ ] } ), content_type=content_type, headers={ 'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True) } ) assert response assert response.status_code == 400 response_data = json.loads(response.data.decode()) assert response_data assert 'errorMessage' in response_data assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_BAD_REQUEST def test_create_executive_type_should_return_error_message_when_user_not_authorized( client, insert_device_group, insert_admin): content_type = 'application/json' device_group = insert_device_group() executive_type_name = 'test executive type name' response = client.post( '/api/hubs/' + device_group.product_key + '/executive-types', data=json.dumps( { "name": executive_type_name, "stateType": "Enum", "stateRangeMin": 0, "stateRangeMax": 1, "enumerator": [ { "number": 0, "text": "zero" }, { "number": 1, "text": "one" } ] } ), content_type=content_type ) assert response assert response.status_code == 400 response_data = json.loads(response.data.decode()) assert response_data assert 'errorMessage' in response_data assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_USER_NOT_DEFINED def test_create_executive_type_should_return_no_privileges_error_message_when_user_is_not_admin( client, insert_device_group, insert_user): content_type = 'application/json' device_group = insert_device_group() admin = insert_user() executive_type_name = 'test executive type name' response = client.post( '/api/hubs/' + device_group.product_key + '/executive-types', data=json.dumps( { "name": executive_type_name, "stateType": "Enum", "stateRangeMin": 0, "stateRangeMax": 1, "enumerator": [ { "number": 0, "text": "zero" }, { "number": 1, "text": "one" } ], 'defaultState': 1 } ), content_type=content_type, headers={ 'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, False) } ) assert response assert response.status_code == 403 response_data = json.loads(response.data.decode()) assert response_data assert 'errorMessage' in response_data assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_USER_DOES_NOT_HAVE_PRIVILEGES
32.111717
100
0.640305
1,237
11,785
5.681487
0.09135
0.125783
0.041121
0.059192
0.884035
0.855293
0.846187
0.84078
0.785714
0.772624
0
0.005153
0.27552
11,785
366
101
32.199454
0.81799
0
0
0.712871
0
0
0.113195
0
0
0
0
0
0.132013
1
0.026403
false
0
0.016502
0
0.042904
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
de9bf447279503512a672c0f905e7872d6795c28
403
py
Python
selecting_OOD_detector/__init__.py
the-mama-ai/selecting_OOD_detector
1708dd2e46826c6c7a641e5a2259c7003fd24584
[ "MIT" ]
null
null
null
selecting_OOD_detector/__init__.py
the-mama-ai/selecting_OOD_detector
1708dd2e46826c6c7a641e5a2259c7003fd24584
[ "MIT" ]
null
null
null
selecting_OOD_detector/__init__.py
the-mama-ai/selecting_OOD_detector
1708dd2e46826c6c7a641e5a2259c7003fd24584
[ "MIT" ]
null
null
null
try: from .pipeline.ood_pipeline import OODPipeline from .pipeline.tuner import HyperparameterTuner except: try: from pipeline.ood_pipeline import OODPipeline from pipeline.tuner import HyperparameterTuner except: from selecting_OOD_detector.pipeline.ood_pipeline import OODPipeline from selecting_OOD_detector.pipeline.tuner import HyperparameterTuner
31
77
0.771712
43
403
7.069767
0.255814
0.157895
0.1875
0.246711
0.901316
0.730263
0.598684
0.598684
0.598684
0.598684
0
0
0.193548
403
12
78
33.583333
0.935385
0
0
0.4
0
0
0
0
0
0
0
0
0
1
0
true
0
0.6
0
0.6
0
0
0
0
null
0
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
dee7598a6f09212b97ca7183b2a6e1fe6b426aff
16,007
py
Python
data_object/tests/test_data_object.py
PawelJ-PL/data_object
e33f7a0bf7a7a4aa9d5cb1fd7526c2ba63a00fdb
[ "MIT" ]
1
2018-01-25T09:14:44.000Z
2018-01-25T09:14:44.000Z
data_object/tests/test_data_object.py
PawelJ-PL/data_object
e33f7a0bf7a7a4aa9d5cb1fd7526c2ba63a00fdb
[ "MIT" ]
null
null
null
data_object/tests/test_data_object.py
PawelJ-PL/data_object
e33f7a0bf7a7a4aa9d5cb1fd7526c2ba63a00fdb
[ "MIT" ]
null
null
null
from datetime import datetime from enum import Enum from unittest import TestCase from data_object import DataObject from data_object.exceptions import ConstructorKeywordArgumentNotFound class TestDataObject(TestCase): def test_should_create_data_object_and_get_as_string(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance = SimpleClass('x', 'y') # then self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__()) def test_should_create_data_object_and_exclude_methods(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar def some_method(self): pass def other_method(self): pass # when instance = SimpleClass('x', 'y') # then self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__()) def test_should_create_data_object_with_properties(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar @property def other(self): return 'ABC' # when instance = SimpleClass('x', 'y') # then self.assertEqual('SimpleClass: {"bar": y, "foo": x, "other": ABC}', instance.__str__()) def test_should_create_data_object_with_class_member(self): # given class SimpleClass(DataObject): class_member = 'xyz' def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance = SimpleClass('x', 'y') # then self.assertEqual('SimpleClass: {"bar": y, "class_member": xyz, "foo": x}', instance.__str__()) def test_should_create_data_object_with_datetime_and_get_as_string(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance = SimpleClass('x', datetime(2000, 10, 5, 14, 30)) # then self.assertEqual('SimpleClass: {"bar": 2000-10-05 14:30:00, "foo": x}', instance.__str__()) def test_should_create_data_object_with_enum_and_get_as_string(self): # given class SomeEnum(Enum): VAL1 = 'val1' class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance = SimpleClass('x', SomeEnum.VAL1) # then self.assertEqual('SimpleClass: {"bar": SomeEnum.VAL1, "foo": x}', instance.__str__()) def test_should_create_child_data_object_and_get_as_string(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class ChildClass(SimpleClass): def __init__(self, foo, bar, other): super().__init__(foo, bar) self.other = other # when instance = ChildClass('x', 'y', 'z') # then self.assertEqual('ChildClass: {"bar": y, "foo": x, "other": z}', instance.__str__()) def test_should_create_data_object_with_method_and_get_as_string(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar def some_method(self, x): return self.foo * x # when instance = SimpleClass('x', 'y') # then self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__()) def test_should_create_data_object_with_protected_field_and_get_as_string(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar self._other = foo + bar # when instance = SimpleClass('x', 'y') # then self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__()) def test_should_create_data_object_and_get_repr(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance = SimpleClass('x', 'y') # then self.assertEqual(instance.__repr__(), 'SimpleClass(bar=y, foo=x)') def test_should_return_equal_true_for_object_with_same_fields(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance1 = SimpleClass('x', 'y') instance2 = SimpleClass(bar='y', foo='x') # then self.assertEqual(instance1, instance2) def test_should_return_equal_false_for_object_with_different_fields(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance1 = SimpleClass('x', 'y') instance2 = SimpleClass(bar='z', foo='x') # then self.assertNotEqual(instance1, instance2) def test_should_return_equal_true_for_object_with_same_fields_and_no_subclass(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class OtherClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance1 = SimpleClass('x', 'y') instance2 = OtherClass('x', 'y') # then self.assertEqual(instance1, instance2) def test_should_return_equal_true_for_object_with_same_fields_and_subclass(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class OtherClass(SimpleClass): pass # when instance1 = SimpleClass('x', 'y') instance2 = OtherClass('x', 'y') # then self.assertEqual(instance1, instance2) def test_should_return_equal_true_for_object_with_same_fields_and_subclass_changed_order(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class OtherClass(SimpleClass): pass # when instance1 = SimpleClass('x', 'y') instance2 = OtherClass('x', 'y') # then self.assertEqual(instance2, instance1) def test_should_return_equal_true_for_object_with_same_fields_and_subclass_changed_hierarchy(self): # given class OtherClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class SimpleClass(OtherClass): pass # when instance1 = SimpleClass('x', 'y') instance2 = OtherClass('x', 'y') # then self.assertEqual(instance1, instance2) def test_should_return_equal_true_for_object_with_same_fields_and_no_subclass_changed_order(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class OtherClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar # when instance1 = SimpleClass('x', 'y') instance2 = OtherClass('x', 'y') # then self.assertEqual(instance2, instance1) def test_should_raise_exception_on_equal_if_no_to_json_method(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class OtherClass: def __init__(self, foo, bar): self.foo = foo self.bar = bar instance1 = SimpleClass('x', 'y') instance2 = OtherClass('x', 'y') # then self.assertNotEqual(instance1, instance2) def test_should_not_add_equal_values_to_set_twice_for_the_same_class(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar result = set() # when instance1 = SimpleClass('x', 'y') instance2 = SimpleClass(bar='y', foo='x') result.add(instance1) result.add(instance2) # then self.assertEqual(len(result), 1) def test_should_not_add_equal_values_to_set_twice_when_subclass(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class OtherClass(SimpleClass): pass result = set() # when instance1 = SimpleClass('x', 'y') instance2 = OtherClass(bar='y', foo='x') result.add(instance1) result.add(instance2) # then self.assertEqual(len(result), 1) def test_should_not_add_equal_values_to_set_twice_when_no_subclass(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar class OtherClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar result = set() # when instance1 = SimpleClass('x', 'y') instance2 = OtherClass(bar='y', foo='x') result.add(instance1) result.add(instance2) # then self.assertEqual(len(result), 1) def test_should_add_different_values_to_set(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar result = set() # when instance1 = SimpleClass('x', 'y') instance2 = SimpleClass(bar='z', foo='x') result.add(instance1) result.add(instance2) # then self.assertEqual(len(result), 2) def test_should_create_instance_from_dict(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar data = {'bar': 'y', 'foo': 'x'} # when instance = SimpleClass.from_dict(data) # then self.assertIsInstance(instance, SimpleClass) self.assertEqual(instance.foo, 'x') self.assertEqual(instance.bar, 'y') def test_should_raise_exception_when_constructor_arg_not_found(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar data = {'bar': 'y'} # when with self.assertRaisesRegex(ConstructorKeywordArgumentNotFound, "Constructor argument 'foo' not found"): SimpleClass.from_dict(data) def test_should_set_arg_with_none_when_value_not_found(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar data = {'bar': 'y'} # when instance = SimpleClass.from_dict(data, none_if_not_found=True) # then self.assertIsInstance(instance, SimpleClass) self.assertIsNone(instance.foo) self.assertEqual(instance.bar, 'y') def test_should_create_instance_from_dict_with_defaults_in_constructor_and_all_provided(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar='xyz'): self.foo = foo self.bar = bar data = {'bar': 'y', 'foo': 'x'} # when instance = SimpleClass.from_dict(data) # then self.assertIsInstance(instance, SimpleClass) self.assertEqual(instance.foo, 'x') self.assertEqual(instance.bar, 'y') def test_should_create_instance_from_dict_with_defaults_in_constructor_and_not_all_provided(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar='xyz'): self.foo = foo self.bar = bar data = {'foo': 'x'} # when instance = SimpleClass.from_dict(data) # then self.assertIsInstance(instance, SimpleClass) self.assertEqual(instance.foo, 'x') self.assertEqual(instance.bar, 'xyz') def test_should_create_instance_from_dict_when_more_args_provided(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar data = {'bar': 'y', 'foo': 'x', 'other': 'xyz'} # when instance = SimpleClass.from_dict(data) # then self.assertIsInstance(instance, SimpleClass) self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__()) def test_should_create_data_object_and_get_as_string_when_self_renamed(self): # given class SimpleClass(DataObject): # noinspection PyMethodParameters def __init__(other, foo, bar): other.foo = foo other.bar = bar # when instance = SimpleClass('x', 'y') # then self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__()) def test_should_copy_instance(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar inst1 = SimpleClass('abc', 'xyz') # when inst2 = inst1.copy() # then self.assertIsInstance(inst2, SimpleClass) self.assertEqual(inst1, inst2) def test_should_copy_instance_with_all_changed_fields(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar inst1 = SimpleClass('abc', 'xyz') # when inst2 = inst1.copy(foo='aa', bar='bb') # then self.assertIsInstance(inst2, SimpleClass) self.assertEqual('SimpleClass: {"bar": bb, "foo": aa}', str(inst2)) def test_should_copy_instance_with_some_changed_fields(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar inst1 = SimpleClass('abc', 'xyz') # when inst2 = inst1.copy(foo='aa') # then self.assertIsInstance(inst2, SimpleClass) self.assertEqual(str(inst2), 'SimpleClass: {"bar": xyz, "foo": aa}') def test_should_copy_instance_with_not_known_field_fields(self): # given class SimpleClass(DataObject): def __init__(self, foo, bar): self.foo = foo self.bar = bar inst1 = SimpleClass('abc', 'xyz') # when inst2 = inst1.copy(foo='aa', zz='cc') # then self.assertIsInstance(inst2, SimpleClass) self.assertEqual(str(inst2), 'SimpleClass: {"bar": xyz, "foo": aa}') self.assertFalse(hasattr(inst2, 'zz'))
28.789568
112
0.55963
1,701
16,007
4.955908
0.072898
0.061447
0.04828
0.061447
0.87153
0.841518
0.828826
0.796085
0.785647
0.775208
0
0.009697
0.336415
16,007
555
113
28.841441
0.783939
0.034297
0
0.745399
0
0.003067
0.05085
0
0
0
0
0
0.144172
1
0.230061
false
0.018405
0.015337
0.006135
0.386503
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
1
0
0
0
0
0
0
0
8
dee89f88c3d7fead9f34abd3f3c5ba8c51f8544c
2,045
py
Python
basic/points_plot.py
rkneusel9/SwarmOptimization
5445b6f90ab49339ca0fdb71e98d44e6827c95a8
[ "MIT" ]
2
2022-01-11T17:14:14.000Z
2022-03-07T10:22:32.000Z
basic/points_plot.py
rkneusel9/SwarmOptimization
5445b6f90ab49339ca0fdb71e98d44e6827c95a8
[ "MIT" ]
null
null
null
basic/points_plot.py
rkneusel9/SwarmOptimization
5445b6f90ab49339ca0fdb71e98d44e6827c95a8
[ "MIT" ]
1
2021-11-24T01:11:49.000Z
2021-11-24T01:11:49.000Z
import numpy as np import matplotlib.pylab as plt ro = np.load("points_ro_resample.npy") pso = np.load("points_pso_resample.npy") jaya= np.load("points_jaya_resample.npy") gwo = np.load("points_gwo_resample.npy") gwo2= np.load("points_gwo_n4_resample.npy") x = np.arange(100) plt.plot(x,ro, color='r') plt.plot(x,pso, color='g') plt.plot(x,jaya, color='b') plt.plot(x,gwo, color='m') plt.plot(x,gwo2, color='k') x = np.arange(100)[::5] plt.plot(x,ro[::5], marker='o', linestyle='none',color='r', label='RO') plt.plot(x,pso[::5], marker='s', linestyle='none',color='g', label='PSO') plt.plot(x,jaya[::5], marker='*', linestyle='none',color='b', label='Jaya') plt.plot(x,gwo[::5], marker='^', linestyle='none', color='m', label='GWO ($\eta=2$)') plt.plot(x,gwo2[::5], marker='<', linestyle='none', color='k', label='GWO ($\eta=4$)') plt.ylim((-5.1,-0.7)) plt.legend(loc="upper right") plt.xlabel("Iteration") plt.ylabel("Objective Function") plt.tight_layout(pad=0, w_pad=0, h_pad=0) plt.savefig("points_plot_resample.png", dpi=300) plt.show() plt.close() ro = np.load("points_ro_clip.npy") pso = np.load("points_pso_clip.npy") jaya= np.load("points_jaya_clip.npy") gwo = np.load("points_gwo_clip.npy") gwo2= np.load("points_gwo_n4_clip.npy") x = np.arange(100) plt.plot(x,ro, color='r') plt.plot(x,pso, color='g') plt.plot(x,jaya, color='b') plt.plot(x,gwo, color='m') plt.plot(x,gwo2, color='k') x = np.arange(100)[::5] plt.plot(x,ro[::5], marker='o', linestyle='none',color='r', label='RO') plt.plot(x,pso[::5], marker='s', linestyle='none',color='g', label='PSO') plt.plot(x,jaya[::5], marker='*', linestyle='none',color='b', label='Jaya') plt.plot(x,gwo[::5], marker='^', linestyle='none', color='m', label='GWO ($\eta=2$)') plt.plot(x,gwo2[::5], marker='<', linestyle='none', color='k', label='GWO ($\eta=4$)') plt.ylim((-5.1,-0.7)) plt.legend(loc="upper right") plt.xlabel("Iteration") plt.ylabel("Objective Function") plt.tight_layout(pad=0, w_pad=0, h_pad=0) plt.savefig("points_plot_clip.png", dpi=300) plt.show() plt.close()
32.983871
86
0.661614
373
2,045
3.541555
0.16622
0.10598
0.12112
0.09084
0.914459
0.890235
0.791824
0.719152
0.719152
0.719152
0
0.029567
0.073839
2,045
61
87
33.52459
0.667899
0
0
0.730769
0
0
0.234834
0.080235
0
0
0
0
0
1
0
false
0
0.038462
0
0.038462
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
723c96b698908e6fdea81165cc9edba869fd29f2
733
py
Python
src/python/nimbusml/datasets/__init__.py
michaelgsharp/NimbusML
50031157265f49eec85d27fe67582d9ddaf01ef9
[ "MIT" ]
134
2018-11-01T22:15:24.000Z
2019-05-04T11:30:08.000Z
src/python/nimbusml/datasets/__init__.py
michaelgsharp/NimbusML
50031157265f49eec85d27fe67582d9ddaf01ef9
[ "MIT" ]
226
2019-05-07T19:00:44.000Z
2021-01-06T07:59:48.000Z
src/python/nimbusml/datasets/__init__.py
michaelgsharp/NimbusML
50031157265f49eec85d27fe67582d9ddaf01ef9
[ "MIT" ]
43
2019-05-15T20:19:42.000Z
2022-03-30T10:26:07.000Z
from .datasets import get_dataset, available_datasets, \ DataSetIris, DataSetInfert, Topics, Timeseries, \ DataSetAirQuality, WikiDetox_Train, WikiDetox_Test, \ Generated_Twitter_Train, Generated_Twitter_Test, \ Generated_Ticket_Train, Generated_Ticket_Test, \ Uci_Train, Uci_Test, MSLTR_Train, MSLTR_Test, \ FS_Train, FS_Test __all__ = [ 'get_dataset', 'available_datasets', 'DataSetIris', 'DataSetInfert', 'Topics', 'Timeseries', 'DataSetAirQuality', 'WikiDetox_Train', 'WikiDetox_Test', 'Generated_Twitter_Train', 'Generated_Twitter_Test', 'Generated_Ticket_Train', 'Generated_Ticket_Test', 'Uci_Train', 'Uci_Test', 'MSLTR_Train', 'MSLTR_Test', 'FS_Train', 'FS_Test' ]
36.65
61
0.732606
78
733
6.371795
0.269231
0.104628
0.076459
0.108652
0.957746
0.957746
0.957746
0.957746
0.957746
0.957746
0
0
0.152797
733
19
62
38.578947
0.800322
0
0
0
1
0
0.34925
0.120055
0
0
0
0
0
1
0
false
0
0.055556
0
0.055556
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
a0f40e31370dd08517214107b2eb581ee62cbb7b
102
py
Python
dazzler/electron/_runtime.py
T4rk1n/dazzler
69c49422dc19c910445ab265b1d3481041de8f43
[ "MIT" ]
15
2019-12-19T11:57:30.000Z
2021-11-15T23:34:41.000Z
dazzler/electron/_runtime.py
T4rk1n/dazzler
69c49422dc19c910445ab265b1d3481041de8f43
[ "MIT" ]
196
2019-09-21T15:10:14.000Z
2022-03-31T11:07:48.000Z
dazzler/electron/_runtime.py
T4rk1n/dazzler
69c49422dc19c910445ab265b1d3481041de8f43
[ "MIT" ]
7
2019-10-30T19:38:15.000Z
2021-12-01T04:54:16.000Z
import sys def is_compiled(): return getattr(sys, 'frozen', False) and hasattr(sys, '_MEIPASS')
17
69
0.696078
14
102
4.928571
0.857143
0
0
0
0
0
0
0
0
0
0
0
0.166667
102
5
70
20.4
0.811765
0
0
0
0
0
0.137255
0
0
0
0
0
0
1
0.333333
true
0.333333
0.333333
0.333333
1
0
1
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
1
1
1
0
0
0
7
a0f9b5ff92b5b9c0305e539129849a7d5360c9c7
134
py
Python
Archive/aupyom-master/aupyom/util.py
MatthijsBrem/wheelchair-design-platform
7d1d574bec793a1737669e134b650c0f16eefd5e
[ "MIT" ]
null
null
null
Archive/aupyom-master/aupyom/util.py
MatthijsBrem/wheelchair-design-platform
7d1d574bec793a1737669e134b650c0f16eefd5e
[ "MIT" ]
null
null
null
Archive/aupyom-master/aupyom/util.py
MatthijsBrem/wheelchair-design-platform
7d1d574bec793a1737669e134b650c0f16eefd5e
[ "MIT" ]
null
null
null
import pkg_resources def example_audio_file(): return pkg_resources.resource_filename(__name__, "example_data/Tom's Dinner.wav")
26.8
85
0.813433
19
134
5.210526
0.842105
0.242424
0
0
0
0
0
0
0
0
0
0
0.097015
134
4
86
33.5
0.818182
0
0
0
0
0
0.216418
0
0
0
0
0
0
1
0.333333
true
0
0.333333
0.333333
1
0
1
0
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
1
0
1
1
1
0
0
8
c22755c3ea41acfd9a7a02f1982c58e46a06136a
543
py
Python
tests/conftest.py
tomochikahara/configurl.py
e92b56b529c1897fde3e395c15963d1c1b9ebc89
[ "MIT" ]
null
null
null
tests/conftest.py
tomochikahara/configurl.py
e92b56b529c1897fde3e395c15963d1c1b9ebc89
[ "MIT" ]
null
null
null
tests/conftest.py
tomochikahara/configurl.py
e92b56b529c1897fde3e395c15963d1c1b9ebc89
[ "MIT" ]
null
null
null
# -*- coding: utf-8 -*- import pytest from . import utils @pytest.fixture() def scheme(): return utils.random_string() @pytest.fixture() def user(): return utils.random_string() @pytest.fixture() def password(): return utils.random_string() @pytest.fixture() def hostname(): return utils.random_string() @pytest.fixture() def port(): return utils.random_port() @pytest.fixture() def url_string(scheme, user, password, hostname, port): return utils.create_url_string(scheme, user, password, hostname, port)
15.514286
74
0.697974
68
543
5.455882
0.279412
0.210243
0.25876
0.247978
0.630728
0.630728
0.630728
0
0
0
0
0.002188
0.158379
543
34
75
15.970588
0.809628
0.038674
0
0.5
0
0
0
0
0
0
0
0
0
1
0.3
false
0.15
0.1
0.3
0.7
0
0
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
1
0
1
0
1
1
0
0
7
df9ef906e55ad65f5ee50f1a62453cc401f77d1e
46,301
py
Python
OMG/env/env_wrapper.py
Webbah/sec-for-reinforcement-learning
19db622dce4963d25cb1b6e4ae12ddf98b6d27d2
[ "MIT" ]
2
2021-12-16T12:49:26.000Z
2022-01-28T19:18:43.000Z
OMG/env/env_wrapper.py
Webbah/sec-for-reinforcement-learning
19db622dce4963d25cb1b6e4ae12ddf98b6d27d2
[ "MIT" ]
null
null
null
OMG/env/env_wrapper.py
Webbah/sec-for-reinforcement-learning
19db622dce4963d25cb1b6e4ae12ddf98b6d27d2
[ "MIT" ]
null
null
null
import platform from functools import partial from typing import Union import gym import matplotlib.pyplot as plt import numpy as np import pandas as pd from openmodelica_microgrid_gym.util import Fastqueue from openmodelica_microgrid_gym.util.transforms import dq0_to_abc, abc_to_dq0, abc_to_alpha_beta from stable_baselines3.common.monitor import Monitor from stable_baselines3.common.type_aliases import GymStepReturn from stochastic.processes import VasicekProcess from OMG.env.randproc_wrapper import RandProcessWrapper from OMG.util.config import cfg from OMG.env.random_load import RandomLoad from OMG.env.vctrl_single_inv import net class BaseWrapper(Monitor): def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000, recorder=None, n_trail="", gamma=0, number_learing_steps=500000, number_past_vals=0): """ Base Env Wrapper to add features to the env-observations and adds information to env.step output which can be used in case of an continuing (non-episodic) task to reset the environment without being terminated by done Hint: is_dq0: if the control is done in dq0; if True, the action is tranfered to abc-system using env-phase and the observation is tranfered back to dq using the next phase :param env: Gym environment to wrap :param number_of_features: Number of features added to the env observations in the wrapped step method :param training_episode_length: (For non-episodic environments) number of training steps after the env is reset by the agent for training purpose (Set to inf in test env!) """ super().__init__(env) self.observation_space = gym.spaces.Box( low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf), high=np.full(env.observation_space.shape[0] + number_of_features, np.inf)) # increase action-space for PI-seperation # self.action_space=gym.spaces.Box(low=np.full(d_i, -1), high=np.full(d_i, 1)) self.training_episode_length = training_episode_length self.recorder = recorder self._n_training_steps = 0 self._i_phasor = 0.0 self.i_a = [] self.i_b = [] self.i_c = [] self.v_a = [] self.v_b = [] self.v_c = [] self._v_pahsor = 0.0 self.n_episode = 0 self.R_training = [] self.i_phasor_training = [] self.v_phasor_training = [] self.reward_episode_mean = [] self.n_trail = n_trail self.phase = [] self.used_P = np.zeros(self.action_space.shape) self.gamma = gamma self.number_learing_steps = number_learing_steps self.delay_queues = [Fastqueue(1, 3) for _ in range(number_past_vals)] def step(self, action: Union[np.ndarray, int]) -> GymStepReturn: """ Adds additional features and infos after the gym env.step() function is executed. Triggers the env to reset without done=True every training_episode_length steps """ if cfg['is_dq0']: # Action: dq0 -> abc action_abc = dq0_to_abc(action, self.env.net.components[0].phase) else: action_abc = action obs, reward, done, info = super().step(action_abc) if len(obs) > 9: # ASSUME THAT LOADCURRENT is included! obs[9:12] = obs[9:12] / net['inverter1'].i_lim super().render() self._n_training_steps += 1 # if self._n_training_steps % round(self.training_episode_length / 10) == 0: # self.env.on_episode_reset_callback() if self._n_training_steps % self.training_episode_length == 0: # info["timelimit_reached"] = True done = True super().close() # add wanted features here (add appropriate self.observation in init!!) # calculate magnitude of current phasor abc # self.i_phasor = self.cal_phasor_magnitude(obs[0:3]) # self.v_phasor = self.cal_phasor_magnitude(obs[3:6]) if cfg['loglevel'] == 'train': self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1]) self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim) self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim) self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1]) self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1]) self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1]) self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1]) self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1]) self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1]) self.phase.append(self.env.net.components[0].phase) if done: self.reward_episode_mean.append(np.mean(self.rewards)) self.n_episode += 1 if cfg['loglevel'] == 'train': episode_data = {"Name": "On_Training", "Episode_number": self.n_episode, "Episode_length": self._n_training_steps, "R_load_training": self.R_training, "i_phasor_training": self.i_phasor_training, "i_a_training": self.i_a, "i_b_training": self.i_b, "i_c_training": self.i_c, "v_a_training": self.v_a, "v_b_training": self.v_b, "v_c_training": self.v_c, "v_phasor_training": self.v_phasor_training, "Rewards": self.rewards, "Phase": self.phase, "Node": platform.uname().node, "Trial number": self.n_trail, "Database name": cfg['STUDY_NAME'], "Reward function": 'rew.rew_fun_dq0', } """ add here "model_params_change": callback.params_change, from training_recorder? """ # stores data locally to cfg['meas_data_folder'], needs to be grept / transfered via reporter to mongodc self.recorder.save_to_json('Trial_number_' + self.n_trail, episode_data) # clear lists self.R_training = [] self.i_phasor_training = [] self.v_phasor_training = [] self.i_a = [] self.i_b = [] self.i_c = [] self.v_a = [] self.v_b = [] self.v_c = [] self.phase = [] if cfg['is_dq0']: # if setpoint in dq: Transform measurement to dq0!!!! obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase) obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase) """ Features """ error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess # delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit """ Following maps the return to the range of [-0.5, 0.5] in case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude exceeds the limit (no extra env interruption here!, all phases should be validated separately) """ # obs = np.append(obs, self.i_phasor - 0.5) obs = np.append(obs, error) # obs = np.append(obs, np.sin(self.env.net.components[0].phase)) # obs = np.append(obs, np.cos(self.env.net.components[0].phase)) """ Add used action to the NN input to learn delay """ obs = np.append(obs, self.used_P) obs_delay_array = self.shift_and_append(obs[3:6]) obs = np.append(obs, obs_delay_array) self.used_P = np.copy(action) return obs, reward, done, info def reset(self, **kwargs): """ Reset the wrapped env and the flag for the number of training steps after the env is reset by the agent for training purpose and internal counters """ [x.clear() for x in self.delay_queues] obs = super().reset() if len(obs) > 9: # ASSUME THAT LOADCURRENT is included! obs[9:12] = obs[9:12] / net['inverter1'].i_lim self._n_training_steps = 0 self.used_P = np.zeros(self.action_space.shape) if cfg['loglevel'] == 'train': self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1]) self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim) self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim) self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1]) self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1]) self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1]) self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1]) self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1]) self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1]) self.phase.append(self.env.net.components[0].phase) if cfg['is_dq0']: # if setpoint in dq: Transform measurement to dq0!!!! obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase) obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase) """ Features """ error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess # delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit """ Following maps the return to the range of [-0.5, 0.5] in case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude exceeds the limit (no extra env interruption here!, all phases should be validated separately) """ # obs = np.append(obs, self.i_phasor - 0.5) obs = np.append(obs, error) # obs = np.append(obs, np.sin(self.env.net.components[0].phase)) # obs = np.append(obs, np.cos(self.env.net.components[0].phase)) # obs = np.append(obs, delta_i_lim_i_phasor) """ Add used action to the NN input to learn delay """ obs = np.append(obs, self.used_P) obs_delay_array = self.shift_and_append(obs[3:6]) obs = np.append(obs, obs_delay_array) return obs def cal_phasor_magnitude(self, abc: np.array) -> float: """ Calculated the magnitude of a phasor in a three phase system. M :param abc: Due to limit normed currents or voltages in abc frame :return: magnitude of the current or voltage phasor """ # calculate magnitude of current phasor abc-> alpha,beta ->|sqrt(alpha² + beta²)| i_alpha_beta = abc_to_alpha_beta(abc) i_phasor_mag = np.sqrt(i_alpha_beta[0] ** 2 + i_alpha_beta[1] ** 2) return i_phasor_mag def shift_and_append(self, obs): """ Takes the observation and shifts throught the queue every queue output is added to total obs """ obs_delay_array = np.array([]) obs_temp = obs for queue in self.delay_queues: obs_temp = queue.shift(obs_temp) obs_delay_array = np.append(obs_delay_array, obs_temp) return obs_delay_array class FeatureWrapper(Monitor): def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000, recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0, penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0, number_learing_steps=500000): # , use_past_vals=False, number_past_vals=0): """ Env Wrapper to add features to the env-observations and adds information to env.step output which can be used in case of an continuing (non-episodic) task to reset the environment without being terminated by done Hint: is_dq0: if the control is done in dq0; if True, the action is tranfered to abc-system using env-phase and the observation is tranfered back to dq using the next phase :param env: Gym environment to wrap :param number_of_features: Number of features added to the env observations in the wrapped step method :param training_episode_length: (For non-episodic environments) number of training steps after the env is reset by the agent for training purpose (Set to inf in test env!) """ super().__init__(env) self.observation_space = gym.spaces.Box( low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf), high=np.full(env.observation_space.shape[0] + number_of_features, np.inf)) # increase action-space for PI-seperation # self.action_space=gym.spaces.Box(low=np.full(d_i, -1), high=np.full(d_i, 1)) self.training_episode_length = training_episode_length self.recorder = recorder self._n_training_steps = 0 self._i_phasor = 0.0 self.i_a = [] self.i_b = [] self.i_c = [] self.v_a = [] self.v_b = [] self.v_c = [] self._v_pahsor = 0.0 self.n_episode = 0 self.R_training = [] self.i_phasor_training = [] self.v_phasor_training = [] self.reward_episode_mean = [] self.n_trail = n_trail self.phase = [] self.integrator_sum = np.zeros(self.action_space.shape) self.integrator_weight = integrator_weight self.antiwindup_weight = antiwindup_weight self.used_P = np.zeros(self.action_space.shape) self.used_I = np.zeros(self.action_space.shape) self.gamma = gamma self.penalty_I_weight = penalty_I_weight self.penalty_P_weight = penalty_P_weight self.t_start_penalty_I = t_start_penalty_I self.t_start_penalty_P = t_start_penalty_P self.number_learing_steps = number_learing_steps self.integrator_sum_list0 = [] self.integrator_sum_list1 = [] self.integrator_sum_list2 = [] self.action_P0 = [] self.action_P1 = [] self.action_P2 = [] self.action_I0 = [] self.action_I1 = [] self.action_I2 = [] def step(self, action: Union[np.ndarray, int]) -> GymStepReturn: """ Adds additional features and infos after the gym env.step() function is executed. Triggers the env to reset without done=True every training_episode_length steps """ action_P = action[0:3] action_I = action[3:6] self.integrator_sum += action_I * self.integrator_weight action_PI = action_P + self.integrator_sum if cfg['is_dq0']: # Action: dq0 -> abc action_abc = dq0_to_abc(action_PI, self.env.net.components[0].phase) # check if m_abc will be clipped if np.any(abs(action_abc) > 1): clipped_action = np.clip(action_abc, -1, 1) delta_action = clipped_action - action_abc # if, reduce integrator by clipped delta action_delta = abc_to_dq0(delta_action, self.env.net.components[0].phase) self.integrator_sum += action_delta * self.antiwindup_weight # clip_reward = np.clip(np.sum(np.abs(delta_action) * \ # (-1 / (self.env.net.components[0].v_lim / self.env.net.components[ # 0].v_DC))) / 3 * (1 - self.gamma), # -1, 0) clip_reward = 0 action_abc = clipped_action else: clip_reward = 0 obs, reward, done, info = super().step(action_abc) reward = reward + clip_reward if len(obs) > 9: # ASSUME THAT LOADCURRENT is included! obs[9:12] = obs[9:12] / net['inverter1'].i_lim super().render() integrator_penalty = np.sum(-((np.abs(action_I)) ** 0.5)) * (1 - self.gamma) / 3 # action_P_penalty = - np.sum((np.abs(action_P - self.used_P)) ** 0.5) * (1 - self.gamma) / 3 action_P_penalty = np.sum(-((np.abs(action_P)) ** 0.5)) * (1 - self.gamma) / 3 # reward_weight is = 1 if self.total_steps > self.t_start_penalty_I: penalty_I_weight_scale = 1 / (self.t_start_penalty_I - self.number_learing_steps) * self.total_steps - \ self.number_learing_steps / (self.t_start_penalty_I - self.number_learing_steps) else: penalty_I_weight_scale = 1 if self.total_steps > self.t_start_penalty_P: penalty_P_weight_scale = 1 / (self.t_start_penalty_P - self.number_learing_steps) * self.total_steps - \ self.number_learing_steps / (self.t_start_penalty_P - self.number_learing_steps) else: penalty_P_weight_scale = 1 reward = (reward + (self.penalty_I_weight * penalty_I_weight_scale) * integrator_penalty + self.penalty_P_weight * penalty_P_weight_scale * action_P_penalty) \ / (1 + self.penalty_I_weight * penalty_I_weight_scale + self.penalty_P_weight * penalty_P_weight_scale) self._n_training_steps += 1 # if self._n_training_steps % round(self.training_episode_length / 10) == 0: # self.env.on_episode_reset_callback() if self._n_training_steps % self.training_episode_length == 0: # info["timelimit_reached"] = True done = True super().close() # add wanted features here (add appropriate self.observation in init!!) # calculate magnitude of current phasor abc self.i_phasor = self.cal_phasor_magnitude(obs[0:3]) self.v_phasor = self.cal_phasor_magnitude(obs[3:6]) if cfg['loglevel'] == 'train': self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1]) self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim) self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim) self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1]) self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1]) self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1]) self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1]) self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1]) self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1]) self.phase.append(self.env.net.components[0].phase) self.integrator_sum_list0.append(self.integrator_sum[0]) self.integrator_sum_list1.append(self.integrator_sum[1]) self.integrator_sum_list2.append(self.integrator_sum[2]) self.action_P0.append(np.float64(action_P[0])) self.action_P1.append(np.float64(action_P[1])) self.action_P2.append(np.float64(action_P[2])) self.action_I0.append(np.float64(action_I[0])) self.action_I1.append(np.float64(action_I[1])) self.action_I2.append(np.float64(action_I[2])) if cfg['is_dq0']: # if setpoint in dq: Transform measurement to dq0!!!! obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase) obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase) """ Features """ error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess # delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit """ Following maps the return to the range of [-0.5, 0.5] in case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude exceeds the limit (no extra env interruption here!, all phases should be validated separately) """ # obs = np.append(obs, self.i_phasor - 0.5) obs = np.append(obs, error) # obs = np.append(obs, np.sin(self.env.net.components[0].phase)) # obs = np.append(obs, np.cos(self.env.net.components[0].phase)) """ Add used action to the NN input to learn delay """ obs = np.append(obs, self.used_P) obs = np.append(obs, self.used_I) # obs = np.append(obs, self.used_action) self.used_P = np.copy(action_P) self.used_I = np.copy(self.integrator_sum) # self.used_P = action_P # self.used_I = self.integrator_sum if done: self.reward_episode_mean.append(np.mean(self.rewards)) self.n_episode += 1 if cfg['loglevel'] == 'train': episode_data = {"Name": "On_Training", "Episode_number": self.n_episode, "Episode_length": self._n_training_steps, "R_load_training": self.R_training, "i_phasor_training": self.i_phasor_training, "i_a_training": self.i_a, "i_b_training": self.i_b, "i_c_training": self.i_c, "v_a_training": self.v_a, "v_b_training": self.v_b, "v_c_training": self.v_c, "v_phasor_training": self.v_phasor_training, "Rewards": self.rewards, "Phase": self.phase, "Node": platform.uname().node, "Trial number": self.n_trail, "Database name": cfg['STUDY_NAME'], "Reward function": 'rew.rew_fun_dq0', 'Integrator0': self.integrator_sum_list0, 'Integrator1': self.integrator_sum_list1, 'Integrator2': self.integrator_sum_list2, 'actionP0': self.action_P0, 'actionP1': self.action_P1, 'actionP2': self.action_P2, 'actionI0': self.action_I0, 'actionI1': self.action_I1, 'actionI2': self.action_I2 } """ add here "model_params_change": callback.params_change, from training_recorder? """ # stores data locally to cfg['meas_data_folder'], needs to be grept / transfered via reporter to mongodc self.recorder.save_to_json('Trial_number_' + self.n_trail, episode_data) # clear lists self.R_training = [] self.i_phasor_training = [] self.v_phasor_training = [] self.i_a = [] self.i_b = [] self.i_c = [] self.v_a = [] self.v_b = [] self.v_c = [] self.phase = [] # if self._n_training_steps > 500: super().close() # plt.plot(self.integrator_sum_list0) # plt.plot(self.integrator_sum_list1) # plt.plot(self.integrator_sum_list2) # plt.ylabel('intergratorzustand') # plt.show() return obs, reward, done, info def reset(self, **kwargs): """ Reset the wrapped env and the flag for the number of training steps after the env is reset by the agent for training purpose and internal counters """ obs = super().reset() if len(obs) > 9: # ASSUME THAT LOADCURRENT is included! obs[9:12] = obs[9:12] / net['inverter1'].i_lim self._n_training_steps = 0 self.integrator_sum = np.zeros(self.action_space.shape) self.used_P = np.zeros(self.action_space.shape) self.used_I = np.zeros(self.action_space.shape) self.i_phasor = self.cal_phasor_magnitude(obs[0:3]) self.v_phasor = self.cal_phasor_magnitude(obs[3:6]) if cfg['loglevel'] == 'train': self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1]) self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim) self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim) self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1]) self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1]) self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1]) self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1]) self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1]) self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1]) self.phase.append(self.env.net.components[0].phase) if cfg['is_dq0']: # if setpoint in dq: Transform measurement to dq0!!!! obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase) obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase) """ Features """ error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess # delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit """ Following maps the return to the range of [-0.5, 0.5] in case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude exceeds the limit (no extra env interruption here!, all phases should be validated separately) """ # obs = np.append(obs, self.i_phasor - 0.5) obs = np.append(obs, error) # obs = np.append(obs, np.sin(self.env.net.components[0].phase)) # obs = np.append(obs, np.cos(self.env.net.components[0].phase)) # obs = np.append(obs, delta_i_lim_i_phasor) """ Add used action to the NN input to learn delay """ obs = np.append(obs, self.used_P) obs = np.append(obs, self.used_I) # obs = np.append(obs, self.used_action) return obs def cal_phasor_magnitude(self, abc: np.array) -> float: """ Calculated the magnitude of a phasor in a three phase system. M :param abc: Due to limit normed currents or voltages in abc frame :return: magnitude of the current or voltage phasor """ # calculate magnitude of current phasor abc-> alpha,beta ->|sqrt(alpha² + beta²)| i_alpha_beta = abc_to_alpha_beta(abc) i_phasor_mag = np.sqrt(i_alpha_beta[0] ** 2 + i_alpha_beta[1] ** 2) return i_phasor_mag class FeatureWrapper_pastVals(FeatureWrapper): def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 500000, recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0, penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0, number_learing_steps=500000, number_past_vals=10): """ Env Wrapper which adds the number_past_vals voltage ([3:6]!!!) observations to the observations. Initialized with zeros! """ super().__init__(env, number_of_features, training_episode_length, recorder, n_trail, integrator_weight, antiwindup_weight, gamma, penalty_I_weight, penalty_P_weight, t_start_penalty_I, t_start_penalty_P, number_learing_steps) # self.observation_space = gym.spaces.Box( # low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf), # high=np.full(env.observation_space.shape[0] + number_of_features, np.inf)) self.delay_queues = [Fastqueue(1, 3) for _ in range(number_past_vals)] def step(self, action: Union[np.ndarray, int]) -> GymStepReturn: obs, reward, done, info = super().step(action) obs_delay_array = self.shift_and_append(obs[3:6]) obs = np.append(obs, obs_delay_array) return obs, reward, done, info def reset(self, **kwargs): """ Reset the wrapped env and the flag for the number of training steps after the env is reset by the agent for training purpose and internal counters """ [x.clear() for x in self.delay_queues] obs = super().reset() obs_delay_array = self.shift_and_append(obs[3:6]) obs = np.append(obs, obs_delay_array) return obs def shift_and_append(self, obs): """ Takes the observation and shifts throught the queue every queue output is added to total obs """ obs_delay_array = np.array([]) obs_temp = obs for queue in self.delay_queues: obs_temp = queue.shift(obs_temp) obs_delay_array = np.append(obs_delay_array, obs_temp) return obs_delay_array class FeatureWrapper_futureVals(FeatureWrapper): def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000, recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0, penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0, number_learing_steps=500000, number_future_vals=0, future_data=''): """ Env Wrapper which adds the number_future_vals R-values to the observations. Initialized with zeros! Therfore it uses the in the init defined pkl """ super().__init__(env, number_of_features + number_future_vals, training_episode_length, recorder, n_trail, integrator_weight, antiwindup_weight, gamma, penalty_I_weight, penalty_P_weight, t_start_penalty_I, t_start_penalty_P, number_learing_steps) gen = RandProcessWrapper(VasicekProcess, proc_kwargs=dict(speed=800, vol=40, mean=50), initial=50, bounds=(14, 200)) self.load_curve = RandomLoad(2881, net.ts, gen, load_curve=pd.read_pickle( # 'experiments/hp_tune/data/R_load_hard_test_case_60_seconds_noReset.pkl')) future_data)) self.future_vals = [] self.number_future_vals = number_future_vals def step(self, action: Union[np.ndarray, int]) -> GymStepReturn: obs, reward, done, info = super().step(action) self.future_vals = [2 * (self.load_curve.give_dataframe_value(self.env.sim_time_interval[0] + i * self.env.time_step_size, col='r_load.resistor' + Rx + '.R') - 14) / ( 200 - 14) - 1 # NORMALIZATION! for i in range(self.number_future_vals) for Rx in ['1']] # , '2', '3']] obs = np.append(obs, self.future_vals) return obs, reward, done, info def reset(self, **kwargs): """ Reset the wrapped env and the flag for the number of training steps after the env is reset by the agent for training purpose and internal counters """ obs = super().reset() self.future_vals = [2 * (self.load_curve.give_dataframe_value(self.env.sim_time_interval[0] + i * self.env.time_step_size, col='r_load.resistor' + Rx + '.R') - 14) / ( 200 - 14) - 1 # NORMALIZATION! for i in range(self.number_future_vals) for Rx in ['1']] # , '2', '3']] obs = np.append(obs, self.future_vals) return obs class FeatureWrapper_I_controller(Monitor): def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000, recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0, penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0, number_learing_steps=500000, Ki=12, number_past_vals=0): """ Env Wrapper to add features to the env-observations and adds information to env.step output which can be used in case of an continuing (non-episodic) task to reset the environment without being terminated by done Hint: is_dq0: if the control is done in dq0; if True, the action is tranfered to abc-system using env-phase and the observation is tranfered back to dq using the next phase :param env: Gym environment to wrap :param number_of_features: Number of features added to the env observations in the wrapped step method :param training_episode_length: (For non-episodic environments) number of training steps after the env is reset by the agent for training purpose (Set to inf in test env!) """ super().__init__(env) self.observation_space = gym.spaces.Box( low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf), high=np.full(env.observation_space.shape[0] + number_of_features, np.inf)) # increase action-space for PI-seperation # self.action_space=gym.spaces.Box(low=np.full(d_i, -1), high=np.full(d_i, 1)) self.training_episode_length = training_episode_length self.recorder = recorder self._n_training_steps = 0 self._i_phasor = 0.0 self.i_a = [] self.i_b = [] self.i_c = [] self.v_a = [] self.v_b = [] self.v_c = [] self._v_pahsor = 0.0 self.n_episode = 0 self.R_training = [] self.i_phasor_training = [] self.v_phasor_training = [] self.reward_episode_mean = [] self.n_trail = n_trail self.phase = [] self.integrator_sum = np.zeros(self.action_space.shape) self.integrator_weight = integrator_weight self.antiwindup_weight = antiwindup_weight self.used_P = np.zeros(self.action_space.shape) self.used_I = np.zeros(self.action_space.shape) self.gamma = gamma self.penalty_I_weight = penalty_I_weight self.penalty_P_weight = penalty_P_weight self.t_start_penalty_I = t_start_penalty_I self.t_start_penalty_P = t_start_penalty_P self.number_learing_steps = number_learing_steps self.Ki = Ki self.delay_queues = [Fastqueue(1, 3) for _ in range(number_past_vals)] def step(self, action: Union[np.ndarray, int]) -> GymStepReturn: """ Adds additional features and infos after the gym env.step() function is executed. Triggers the env to reset without done=True every training_episode_length steps """ action_PI = action + self.integrator_sum if cfg['is_dq0']: # Action: dq0 -> abc action_abc = dq0_to_abc(action_PI, self.env.net.components[0].phase) # check if m_abc will be clipped if np.any(abs(action_abc) > 1): # if, reduce integrator by clipped delta action_delta = abc_to_dq0(np.clip(action_abc, -1, 1) - action_abc, self.env.net.components[0].phase) # self.integrator_sum += action_delta * self.antiwindup_weight self.integrator_sum += action_delta * self.env.time_step_size obs, reward, done, info = super().step(action_abc) if len(obs) > 9: # ASSUME THAT LOADCURRENT is included! obs[9:12] = obs[9:12] / net['inverter1'].i_lim super().render() self._n_training_steps += 1 # if self._n_training_steps % round(self.training_episode_length / 10) == 0: # self.env.on_episode_reset_callback() if self._n_training_steps % self.training_episode_length == 0: # info["timelimit_reached"] = True done = True super().close() # add wanted features here (add appropriate self.observation in init!!) # calculate magnitude of current phasor abc self.i_phasor = self.cal_phasor_magnitude(obs[0:3]) self.v_phasor = self.cal_phasor_magnitude(obs[3:6]) if cfg['loglevel'] == 'train': self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1]) self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim) self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim) self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1]) self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1]) self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1]) self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1]) self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1]) self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1]) self.phase.append(self.env.net.components[0].phase) if done: self.reward_episode_mean.append(np.mean(self.rewards)) self.n_episode += 1 if cfg['loglevel'] == 'train': episode_data = {"Name": "On_Training", "Episode_number": self.n_episode, "Episode_length": self._n_training_steps, "R_load_training": self.R_training, "i_phasor_training": self.i_phasor_training, "i_a_training": self.i_a, "i_b_training": self.i_b, "i_c_training": self.i_c, "v_a_training": self.v_a, "v_b_training": self.v_b, "v_c_training": self.v_c, "v_phasor_training": self.v_phasor_training, "Rewards": self.rewards, "Phase": self.phase, "Node": platform.uname().node, "Trial number": self.n_trail, "Database name": cfg['STUDY_NAME'], "Reward function": 'rew.rew_fun_dq0', } """ add here "model_params_change": callback.params_change, from training_recorder? """ # stores data locally to cfg['meas_data_folder'], needs to be grept / transfered via reporter to mongodc self.recorder.save_to_json('Trial_number_' + self.n_trail, episode_data) # clear lists self.R_training = [] self.i_phasor_training = [] self.v_phasor_training = [] self.i_a = [] self.i_b = [] self.i_c = [] self.v_a = [] self.v_b = [] self.v_c = [] self.phase = [] if cfg['is_dq0']: # if setpoint in dq: Transform measurement to dq0!!!! obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase) obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase) """ Features """ error = obs[6:9] - obs[3:6] # control error: v_setpoint - v_mess # delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit # self.integrator_sum += error * self.integrator_weight * self.Ki self.integrator_sum += error * self.env.time_step_size * self.Ki """ Following maps the return to the range of [-0.5, 0.5] in case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude exceeds the limit (no extra env interruption here!, all phases should be validated separately) """ # obs = np.append(obs, self.i_phasor - 0.5) obs = np.append(obs, error) # obs = np.append(obs, np.sin(self.env.net.components[0].phase)) # obs = np.append(obs, np.cos(self.env.net.components[0].phase)) """ Add pastvals """ obs_delay_array = self.shift_and_append(obs[3:6]) obs = np.append(obs, obs_delay_array) obs = np.append(obs, self.integrator_sum) """ Add used action to the NN input to learn delay """ obs = np.append(obs, self.used_P) obs = np.append(obs, self.used_I) # obs = np.append(obs, self.used_action) self.used_P = np.copy(action) self.used_I = np.copy(self.integrator_sum) # self.used_P = action_P # self.used_I = self.integrator_sum return obs, reward, done, info def reset(self, **kwargs): """ Reset the wrapped env and the flag for the number of training steps after the env is reset by the agent for training purpose and internal counters """ [x.clear() for x in self.delay_queues] obs = super().reset() if len(obs) > 9: # ASSUME THAT LOADCURRENT is included! obs[9:12] = obs[9:12] / net['inverter1'].i_lim self._n_training_steps = 0 self.integrator_sum = np.zeros(self.action_space.shape) self.used_P = np.zeros(self.action_space.shape) self.used_I = np.zeros(self.action_space.shape) self.i_phasor = self.cal_phasor_magnitude(obs[0:3]) self.v_phasor = self.cal_phasor_magnitude(obs[3:6]) if cfg['loglevel'] == 'train': self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1]) self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim) self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim) self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1]) self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1]) self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1]) self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1]) self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1]) self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1]) self.phase.append(self.env.net.components[0].phase) if cfg['is_dq0']: # if setpoint in dq: Transform measurement to dq0!!!! obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase) obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase) """ Features """ error = obs[6:9] - obs[3:6] # control error: v_setpoint - v_mess # delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit # self.integrator_sum += error * self.integrator_weight * self.Ki self.integrator_sum += error * self.env.time_step_size * self.Ki """ Following maps the return to the range of [-0.5, 0.5] in case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude exceeds the limit (no extra env interruption here!, all phases should be validated separately) """ # obs = np.append(obs, self.i_phasor - 0.5) obs = np.append(obs, error) # obs = np.append(obs, np.sin(self.env.net.components[0].phase)) # obs = np.append(obs, np.cos(self.env.net.components[0].phase)) """ Add pastvals and integrator sum """ obs_delay_array = self.shift_and_append(obs[3:6]) obs = np.append(obs, obs_delay_array) obs = np.append(obs, self.integrator_sum) # obs = np.append(obs, delta_i_lim_i_phasor) """ Add used action to the NN input to learn delay """ obs = np.append(obs, self.used_P) obs = np.append(obs, self.used_I) # obs = np.append(obs, self.used_action) return obs def cal_phasor_magnitude(self, abc: np.array) -> float: """ Calculated the magnitude of a phasor in a three phase system. M :param abc: Due to limit normed currents or voltages in abc frame :return: magnitude of the current or voltage phasor """ # calculate magnitude of current phasor abc-> alpha,beta ->|sqrt(alpha² + beta²)| i_alpha_beta = abc_to_alpha_beta(abc) i_phasor_mag = np.sqrt(i_alpha_beta[0] ** 2 + i_alpha_beta[1] ** 2) return i_phasor_mag def shift_and_append(self, obs): """ Takes the observation and shifts throught the queue every queue output is added to total obs """ obs_delay_array = np.array([]) obs_temp = obs for queue in self.delay_queues: obs_temp = queue.shift(obs_temp) obs_delay_array = np.append(obs_delay_array, obs_temp) return obs_delay_array
43.63902
120
0.584005
6,226
46,301
4.12769
0.061195
0.028873
0.023114
0.027783
0.922876
0.90953
0.895366
0.892642
0.882291
0.874548
0
0.022496
0.304918
46,301
1,060
121
43.680189
0.776031
0.218419
0
0.830123
0
0
0.057148
0
0
0
0
0
0
1
0.036778
false
0
0.028021
0
0.101576
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
dfe13d4f5852b24009308c4ad9a8a657cb3b2fa1
3,453
py
Python
test.py
MIAWU-jojo/NLP-MyRetro-jieba
6f80ed442b63a15ff7f12c42e53f6e2340a50ced
[ "MIT" ]
null
null
null
test.py
MIAWU-jojo/NLP-MyRetro-jieba
6f80ed442b63a15ff7f12c42e53f6e2340a50ced
[ "MIT" ]
null
null
null
test.py
MIAWU-jojo/NLP-MyRetro-jieba
6f80ed442b63a15ff7f12c42e53f6e2340a50ced
[ "MIT" ]
null
null
null
import os import jieba.posseg from Postag import cut_main from Tokenizer import gt from timeit import default_timer as timer if __name__ == '__main__': # 分词标注测评 ok = 0 Precision = 0 Recall = 0 tic = timer() with open('test.txt', 'r', encoding='utf-8') as f: while True: line = f.readline() if not line: break pred = list(gt.cut_DAG(line)) # 以jieba分词为评测标准 ans = list(jieba.cut(line, )) # print(ans) Precision = Precision + len(pred) Recall = Recall + len(ans) for a in pred: if a in ans: ok = ok + 1 # print(ok) toc = timer() with open('test.txt', 'r', encoding='utf-8') as f: while True: line = f.readline() if not line: break # pred = list(cut(line)) # 以jieba分词为评测标准 ans = list(jieba.cut(line, )) # print(ans) # Precision = Precision + len(pred) # Recall = Recall + len(ans) # for a in pred: # if a in ans: # ok = ok + 1 # print(ok) tac = timer() precision = ok / Precision recall = ok / Recall f1 = 2 * precision * recall / (precision + recall) print("-----------------分词------------------") print("Precision:{}, Recall:{}, F1:{}".format(precision, recall, f1)) fsize = os.path.getsize('test.txt') fszie = fsize / 1024 time = 2 * toc - tic - tac speed = fszie / time # print(fszie) # print(tac - toc) # print(toc - tic) print("用时 %g s" % (time)) print("速度为 %g KB/s" % (speed)) # 词性标注评测 print("-------------------词性标注+分词--------------------") ok = 0 Precision = 0 Recall = 0 tic = timer() with open('test.txt', 'r', encoding='utf-8') as f: while True: line = f.readline() if not line: break pred = list(cut_main(line)) # 以jieba分词为评测标准 ans = list(jieba.posseg.cut(line, )) # print(ans) Precision = Precision + len(pred) Recall = Recall + len(ans) for a in pred: if a in ans: ok = ok + 1 # print(ok) toc = timer() with open('test.txt', 'r', encoding='utf-8') as f: while True: line = f.readline() if not line: break # pred = list(cut(line)) # 以jieba分词为评测标准 ans = list(jieba.posseg.cut(line, )) # print(ans) # Precision = Precision + len(pred) # Recall = Recall + len(ans) # for a in pred: # if a in ans: # ok = ok + 1 # print(ok) tac = timer() precision = ok / Precision recall = ok / Recall f1 = 2 * precision * recall / (precision + recall) print("Precision:{}, Recall:{}, F1:{}".format(precision, recall, f1)) fsize = os.path.getsize('test.txt') fszie = fsize / 1024 time = 2 * toc - tic - tac speed = fszie / time # print(fszie) # print(tac - toc) # print(toc - tic) print("用时 %g s" % (time)) print("速度为 %g KB/s" % (speed))
29.767241
74
0.442224
380
3,453
3.986842
0.178947
0.09901
0.034323
0.044884
0.90033
0.90033
0.90033
0.90033
0.90033
0.90033
0
0.015912
0.417608
3,453
115
75
30.026087
0.737444
0.150304
0
0.868421
0
0
0.092965
0.029792
0
0
0
0
0
1
0
false
0
0.065789
0
0.065789
0.105263
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
dff7b6497b136ced7711d04edb93b09e7a108ead
183
py
Python
tests/metrics/__init__.py
christofer-f/pytorch-lightning
01f131665aa5a7c86b984ece7214390076fd2a98
[ "Apache-2.0" ]
null
null
null
tests/metrics/__init__.py
christofer-f/pytorch-lightning
01f131665aa5a7c86b984ece7214390076fd2a98
[ "Apache-2.0" ]
null
null
null
tests/metrics/__init__.py
christofer-f/pytorch-lightning
01f131665aa5a7c86b984ece7214390076fd2a98
[ "Apache-2.0" ]
null
null
null
import os from tests.metrics.utils import compute_batch, setup_ddp from tests.metrics.utils import NUM_BATCHES, NUM_PROCESSES, BATCH_SIZE from tests.metrics.test_metric import Dummy
30.5
70
0.852459
29
183
5.172414
0.586207
0.18
0.32
0.28
0.36
0
0
0
0
0
0
0
0.098361
183
5
71
36.6
0.909091
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
260ca1f24558aebeb52721658214f8b435e0a14c
91,715
py
Python
app.py
dhmodi/medical-affair-assistant
e8fe0e3053f8a7fae03b699a7694ba4ca9e8c75d
[ "Apache-2.0" ]
null
null
null
app.py
dhmodi/medical-affair-assistant
e8fe0e3053f8a7fae03b699a7694ba4ca9e8c75d
[ "Apache-2.0" ]
null
null
null
app.py
dhmodi/medical-affair-assistant
e8fe0e3053f8a7fae03b699a7694ba4ca9e8c75d
[ "Apache-2.0" ]
null
null
null
#!/usr/bin/env python from __future__ import print_function from future.standard_library import install_aliases import cx_Oracle install_aliases() import json import os import sys import pandas as pd sys.path.append('cognitiveSQL') from flask import Flask,session from flask import request from flask import make_response from flask import url_for, redirect from flask_socketio import SocketIO, send, emit import subprocess import cognitiveSQL.Database as Database import cognitiveSQL.LangConfig as LangConfig import cognitiveSQL.Parser as Parser import cognitiveSQL.Thesaurus as Thesaurus import cognitiveSQL.StopwordFilter as StopwordFilter from cognitiveSQL.HashMap import hashMap_columns from urllib.parse import urlparse, urlencode from urllib.request import urlopen, Request from urllib.error import HTTPError import datetime import math import psycopg2 import apiai import requests # Flask app should start in global layout app = Flask(__name__, static_url_path='') socketio = SocketIO(app) app.secret_key = 'my unobvious secret key' parser = "" baseUrl = "https://api.dialogflow.com/v1/query?v=20170712" accessToken = "66ad5ee869a34d3593181c0f9ff0922c" # @app.route('/') # def index(): # return redirect(url_for('static_url', filename='index.html')) def select_inquiry_response(prod_name, columnName,indication): try: url = urlparse( "postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") print(url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) cur = conn.cursor() sql = "select " + columnName + " from public.inquiry_response where product_name = '%s' and indication = '%s' limit %s" %(prod_name,indication,1) print(sql) cur.execute(sql) row = cur.fetchone() #print(row[1]) #print("The number of parts: ", cur.rowcount) cur.close() return row except (Exception, psycopg2.DatabaseError) as error: print(error) finally: if conn is not None: conn.close() def select_temp_data(): try: url = urlparse( "postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") print(url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) cur = conn.cursor() sql = "select header,header_value from public.mia_temp_param" print(sql) cur.execute(sql) row = cur.fetchall() #print(row[1]) #print("The number of parts: ", cur.rowcount) cur.close() return row except (Exception, psycopg2.DatabaseError) as error: print(error) finally: if conn is not None: conn.close() def truncate_temp_table(): try: url = urlparse( "postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") print(url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) cur = conn.cursor() sql = "DELETE FROM public.mia_temp_param" print(sql) cur.execute(sql) #print(row[1]) print("The number of parts: ", cur.rowcount) conn.commit() cur.close() except (Exception, psycopg2.DatabaseError) as error: print(error) finally: if conn is not None: conn.close() def insert_into_temp(header,header_value): sql = "INSERT INTO public.mia_temp_param (header,header_value) VALUES(%s, %s)"; try: # read database configuration # params = config() # connect to the PostgreSQL database url = urlparse( "postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") # print(url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) # create a new cursor cur = conn.cursor() # execute the INSERT statement cur.execute(sql, (header, header_value)) # commit the changes to the database conn.commit() # close communication with the database cur.close() except (Exception, psycopg2.DatabaseError) as error: print(error) finally: if conn is not None: conn.close() def insert_into_temp(list): sql = "INSERT INTO public.mia_temp_param (header,header_value) VALUES(%s, %s)"; try: # read database configuration # params = config() # connect to the PostgreSQL database url = urlparse( "postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") # print(url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) # create a new cursor cur = conn.cursor() for x in list: # execute the INSERT statement cur.execute(sql, (x[0],x[1])) # commit the changes to the database conn.commit() # close communication with the database cur.close() except (Exception, psycopg2.DatabaseError) as error: print(error) finally: if conn is not None: conn.close() #Cur.execute("truncate mytable;") def insert_inquiry_details(division,country,master_prod,inquiry,customer_type,customer_channel,facilitated_unfacilitated,case_create_dt,case_clsd_dt,resp_id,response,user_mail_id,query_category): sql = "INSERT INTO public.inquiry_data (Division,Country,Master_Prod ,Inquiry,Customer_Type,Customer_channel,Facilitated_Unfacilitated,Case_Create_Date,Case_Closed_Date,Resp_Id,Response,user_mail_id,query_category) VALUES(%s, %s, %s, %s, %s, %s,%s,%s, %s, %s, %s, %s, %s)"; try: # read database configuration #params = config() # connect to the PostgreSQL database url = urlparse( "postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") #print(url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) # create a new cursor cur = conn.cursor() # execute the INSERT statement cur.execute(sql,(division,country,master_prod,inquiry,customer_type,customer_channel,facilitated_unfacilitated,case_create_dt,case_clsd_dt,resp_id,response,user_mail_id,query_category)) # commit the changes to the database conn.commit() # close communication with the database cur.close() except (Exception, psycopg2.DatabaseError) as error: print(error) finally: if conn is not None: conn.close() @app.route('/speech') def speech(): return redirect(url_for('static', filename='speech.html')) @app.route('/visualization') def visualization(): return redirect(url_for('static', filename='visualization.html')) # @app.route('/inventory') # def inventory():d # return redirect(url_for('static_url', filename='index.html')) @app.route('/emailAffair', methods=['POST']) def emailAffair(): req = request.get_json(silent=True, force=True) print("Request") action = "" speech = "" productName = "" print(json.dumps(req, indent=4)) if (req.get("inquiryQuestion") is not None or req.get("inquiryQuestion") != ""): print(req.get("age")) if req.get("age") == "": age = "0" else: age = req.get("age") if (req.get("location") == ""): location = "India" else: location = req.get("location") if (req.get("profession") == ""): profession = "Doc" else: profession = req.get("profession") values = json.dumps({ "lang": "en", "query": req.get("inquiryQuestion")+" "+age+" "+profession+" "+location, "sessionId": "12345", "timezone": "America/New_York" }) headers ={ 'Content-Type': 'application/json', 'Authorization': 'Bearer '+accessToken } res = json.loads(requests.post(url=baseUrl, data=values,headers=headers).text) print(res.get("result").get("fulfillment").get("speech")) action = res.get("result").get("action") speech = res.get("result").get("fulfillment").get("speech") productName = res.get("result").get("parameters").get("ProductName") res = json.dumps({ "category": action, "response": speech, "ProductName": productName }, indent=4) print(res) r = make_response(res) r.headers['Content-Type'] = 'application/json' return r @app.route('/medicalAffair', methods=['POST']) def medicalAffair(): req = request.get_json(silent=True, force=True) print("Request:") print(json.dumps(req, indent=4)) res = processRequest(req) res = json.dumps(res, indent=4) print(res) r = make_response(res) r.headers['Content-Type'] = 'application/json' return r def processRequest(req): try: is_Alexa_json = False is_Apiai_json = False if "request" in req: is_Alexa_json = True if "result" in req: is_Apiai_json = True global OutMap global globalList globalList = [] global response response ="" global MainQuery MainQuery = "" global masterProd masterProd = "" global userRegion userRegion = "" global productName productName = "" global userProfession userProfession = "" global fac_unfac fac_unfac = "" if is_Apiai_json == True: if (req.get("result").get("action") == "ProdAppearance" or req.get("result").get("action") == "ProdAvailability" or req.get("result").get("action") == "ProdGenericAvailability" or req.get("result").get("action") == "ProdDescription" or req.get("result").get("action") == "ProdWork" or req.get("result").get("action") == "ProdSideEffect" or req.get("result").get("action") == "ProdDosageReco" or req.get("result").get("action") == "ProductAvailability-Yes" or req.get("result").get("action") == "ProductAppearance-Yes" or req.get("result").get("action") == "ProductGenericAvailability-Yes" or req.get("result").get("action") == "ProductDescription-Yes" or req.get("result").get("action") == "ProductWork-Yes" or req.get("result").get("action") == "ProductSideEffect-Yes" or req.get("result").get("action") == "ProductDosageReco-Yes" or req.get("result").get("action") == "ProductAvailability-Email" or req.get("result").get("action") == "ProductAppearance-Email" or req.get("result").get("action") == "ProductGenericAvailability-Email" or req.get("result").get("action") == "ProductDescription-Email" or req.get("result").get("action") == "ProductWork-Email" or req.get("result").get("action") == "ProductSideEffect-Email" or req.get("result").get("action") == "ProductDosageReco-Email" or req.get("result").get("action") == "ProductAvailability-No" or req.get("result").get("action") == "ProductAppearance-No" or req.get("result").get("action") == "ProductGenericAvailability-No" or req.get("result").get("action") == "ProductDescription-No" or req.get("result").get("action") == "ProductWork-No" or req.get("result").get("action") == "ProductSideEffect-No" or req.get("result").get("action") == "ProductDosageReco-No"): print(req.get("result").get("action")) actionIncompleteStatus = req.get("result").get("actionIncomplete") print(actionIncompleteStatus) fac_unfac = "" master_prod = "" response = "" status = False if (actionIncompleteStatus and req.get("result").get("action") != "") and ( req.get("result").get("parameters").get("ProductName") != "") and ( req.get("result").get("parameters").get("UserOccupation") == "") and ( req.get("result").get("parameters").get("UserRegion") == "") and ( req.get("result").get("parameters").get("UserAge") == ""): truncate_temp_table() tuple = ('MainQuery', req.get("result").get("resolvedQuery")) #tup() globalList.append(tuple) # session["userRegion"] = "" # session["productName"] = "" # session["userProfession"] = "" # session["response"] = "" # session["MainQuery"] = req.get("result").get("resolvedQuery") insert_into_temp(globalList) #print(session["MainQuery"]) if actionIncompleteStatus: print("Skipping") else: print("Accepted") if ((req.get("result").get("action") is not None) or ( req.get("result").get("parameters").get("ProductName") is not None) or ( req.get("result").get("parameters").get("UserRegion") is not None) or ( req.get("result").get("UserAge").get("amount") is not None) or ( req.get("result").get("UserAge").get("unit") is not None)): if (req.get("result").get("action") == "ProdAppearance"): print("ProdApperance") Prod_Response = select_inquiry_response(req.get("result").get("parameters").get("ProductName"), "Apperance", req.get("result").get("parameters").get( "ProdIndication")) if Prod_Response != None: status = True; tuple = ("masterProd", 'Product Appearance') globalList.append(tuple) # insert_into_temp("masterProd", 'Product Availability') if len(Prod_Response[0]) > 0: fac_unfac = 'Facilitated' # session["userRegion"] = req.get("result").get("parameters").get("UserRegion") # insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion")) # tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion")) # globalList.append(tuple) # session["productName"] = req.get("result").get("parameters").get("ProductName") # insert_into_temp("productName", req.get("result").get("parameters").get("ProductName")) tuple = ("productName", req.get("result").get("parameters").get("ProductName")) globalList.append(tuple) # session["userProfession"] = req.get("result").get("UserProfession") # insert_into_temp("userProfession", req.get("result").get("UserProfession")) # tuple = ("userOccupation", req.get("result").get("UserProfession")) # globalList.append(tuple) response = Prod_Response[0] + "Was this information useful?" # insert_into_temp("response", Prod_Response[0] + "Was this information useful?") tuple = ("response", Prod_Response[0] + "Was this information useful?") globalList.append(tuple) else: fac_unfac = 'UnFacilitated' response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID." # insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") globalList.append(tuple) # session["fac_unfac"] = fac_unfac # insert_into_temp("fac_unfac",fac_unfac) tuple = ("fac_unfac", fac_unfac) globalList.append(tuple) insert_into_temp(globalList) else: status = False fac_unfac = 'Unfacilitated' elif (req.get("result").get("action") == "ProdAvailability"): print("ProdAvailability") Prod_Response = select_inquiry_response(req.get("result").get("parameters").get("ProductName"), "Availability", req.get("result").get("parameters").get( "ProdIndication")) if Prod_Response != None: status = True; tuple = ("masterProd", 'Product Availability') globalList.append(tuple) #insert_into_temp("masterProd", 'Product Availability') if len(Prod_Response[0]) > 0: fac_unfac = 'Facilitated' #session["userRegion"] = req.get("result").get("parameters").get("UserRegion") #insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion")) #tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion")) #globalList.append(tuple) #session["productName"] = req.get("result").get("parameters").get("ProductName") #insert_into_temp("productName", req.get("result").get("parameters").get("ProductName")) tuple = ("productName", req.get("result").get("parameters").get("ProductName")) globalList.append(tuple) #session["userProfession"] = req.get("result").get("UserProfession") #insert_into_temp("userProfession", req.get("result").get("UserProfession")) #tuple = ("userOccupation", req.get("result").get("UserProfession")) #globalList.append(tuple) response = Prod_Response[0] + "Was this information useful?" #insert_into_temp("response", Prod_Response[0] + "Was this information useful?") tuple = ("response", Prod_Response[0] + "Was this information useful?") globalList.append(tuple) else: fac_unfac = 'UnFacilitated' response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID." #insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") globalList.append(tuple) #session["fac_unfac"] = fac_unfac #insert_into_temp("fac_unfac",fac_unfac) tuple =("fac_unfac", fac_unfac) globalList.append(tuple) insert_into_temp(globalList) else: status = False; fac_unfac = 'Unfacilitated' elif (req.get("result").get("action") == "ProdGenericAvailability"): print("ProdGenericAvailable") Prod_Response = select_inquiry_response(req.get("result").get("parameters").get("ProductName"), "Generic_Availables", req.get("result").get("parameters").get( "ProdIndication")) if Prod_Response != None: status = True; tuple = ("masterProd", 'Product Generic Availability') globalList.append(tuple) # insert_into_temp("masterProd", 'Product Availability') if len(Prod_Response[0]) > 0: fac_unfac = 'Facilitated' # session["userRegion"] = req.get("result").get("parameters").get("UserRegion") # insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion")) # tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion")) # globalList.append(tuple) # session["productName"] = req.get("result").get("parameters").get("ProductName") # insert_into_temp("productName", req.get("result").get("parameters").get("ProductName")) tuple = ("productName", req.get("result").get("parameters").get("ProductName")) globalList.append(tuple) # session["userProfession"] = req.get("result").get("UserProfession") # insert_into_temp("userProfession", req.get("result").get("UserProfession")) # tuple = ("userOccupation", req.get("result").get("UserProfession")) # globalList.append(tuple) response = Prod_Response[0] + "Was this information useful?" # insert_into_temp("response", Prod_Response[0] + "Was this information useful?") tuple = ("response", Prod_Response[0] + "Was this information useful?") globalList.append(tuple) else: fac_unfac = 'UnFacilitated' response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID." # insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") globalList.append(tuple) # session["fac_unfac"] = fac_unfac # insert_into_temp("fac_unfac",fac_unfac) tuple = ("fac_unfac", fac_unfac) globalList.append(tuple) insert_into_temp(globalList) else: status = False fac_unfac = 'Unfacilitated' elif (req.get("result").get("action") == "ProdDescription"): print("ProdDescription") Prod_Response = select_inquiry_response( req.get("result").get("parameters").get("ProductName"), "description", req.get("result").get("parameters").get("ProdIndication")) if Prod_Response != None: status = True; tuple = ("masterProd", 'Product Descritpion') globalList.append(tuple) # insert_into_temp("masterProd", 'Product Availability') if len(Prod_Response[0]) > 0: fac_unfac = 'Facilitated' # session["userRegion"] = req.get("result").get("parameters").get("UserRegion") # insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion")) # tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion")) # globalList.append(tuple) # session["productName"] = req.get("result").get("parameters").get("ProductName") # insert_into_temp("productName", req.get("result").get("parameters").get("ProductName")) tuple = ("productName", req.get("result").get("parameters").get("ProductName")) globalList.append(tuple) # session["userProfession"] = req.get("result").get("UserProfession") # insert_into_temp("userProfession", req.get("result").get("UserProfession")) # tuple = ("userOccupation", req.get("result").get("UserProfession")) # globalList.append(tuple) response = Prod_Response[0] + "Was this information useful?" # insert_into_temp("response", Prod_Response[0] + "Was this information useful?") tuple = ("response", Prod_Response[0] + "Was this information useful?") globalList.append(tuple) else: fac_unfac = 'UnFacilitated' response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID." # insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") globalList.append(tuple) # session["fac_unfac"] = fac_unfac # insert_into_temp("fac_unfac",fac_unfac) tuple = ("fac_unfac", fac_unfac) globalList.append(tuple) insert_into_temp(globalList) else: status = False fac_unfac = 'Unfacilitated' # Default else elif (req.get("result").get("action") == "ProdWork"): print("ProdWork") Prod_Response = select_inquiry_response( req.get("result").get("parameters").get("ProductName"), "how_does_it_work", req.get("result").get("parameters").get("ProdIndication")) if Prod_Response != None: status = True; tuple = ("masterProd", 'Product How Does It Work') globalList.append(tuple) # insert_into_temp("masterProd", 'Product Availability') if len(Prod_Response[0]) > 0: fac_unfac = 'Facilitated' # session["userRegion"] = req.get("result").get("parameters").get("UserRegion") # insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion")) # tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion")) # globalList.append(tuple) # session["productName"] = req.get("result").get("parameters").get("ProductName") # insert_into_temp("productName", req.get("result").get("parameters").get("ProductName")) tuple = ("productName", req.get("result").get("parameters").get("ProductName")) globalList.append(tuple) # session["userProfession"] = req.get("result").get("UserProfession") # insert_into_temp("userProfession", req.get("result").get("UserProfession")) # tuple = ("userOccupation", req.get("result").get("UserProfession")) # globalList.append(tuple) response = Prod_Response[0] + "Was this information useful?" # insert_into_temp("response", Prod_Response[0] + "Was this information useful?") tuple = ("response", Prod_Response[0] + "Was this information useful?") globalList.append(tuple) else: fac_unfac = 'UnFacilitated' response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID." # insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") globalList.append(tuple) # session["fac_unfac"] = fac_unfac # insert_into_temp("fac_unfac",fac_unfac) tuple = ("fac_unfac", fac_unfac) globalList.append(tuple) insert_into_temp(globalList) else: status = False fac_unfac = 'Unfacilitated' # Default else elif (req.get("result").get("action") == "ProdSideEffect"): print("ProdSideEffect") Prod_Response = select_inquiry_response( req.get("result").get("parameters").get("ProductName"), "sideeffects", req.get("result").get("parameters").get("ProdIndication")) if Prod_Response != None: status = True; tuple = ("masterProd", 'Product Side Effect') globalList.append(tuple) # insert_into_temp("masterProd", 'Product Availability') if len(Prod_Response[0]) > 0: fac_unfac = 'Facilitated' # session["userRegion"] = req.get("result").get("parameters").get("UserRegion") # insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion")) # tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion")) # globalList.append(tuple) # session["productName"] = req.get("result").get("parameters").get("ProductName") # insert_into_temp("productName", req.get("result").get("parameters").get("ProductName")) tuple = ("productName", req.get("result").get("parameters").get("ProductName")) globalList.append(tuple) # session["userProfession"] = req.get("result").get("UserProfession") # insert_into_temp("userProfession", req.get("result").get("UserProfession")) # tuple = ("userOccupation", req.get("result").get("UserProfession")) # globalList.append(tuple) response = Prod_Response[0] + "Was this information useful?" # insert_into_temp("response", Prod_Response[0] + "Was this information useful?") tuple = ("response", Prod_Response[0] + "Was this information useful?") globalList.append(tuple) else: fac_unfac = 'UnFacilitated' response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID." # insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") globalList.append(tuple) # session["fac_unfac"] = fac_unfac # insert_into_temp("fac_unfac",fac_unfac) tuple = ("fac_unfac", fac_unfac) globalList.append(tuple) insert_into_temp(globalList) else: status = False fac_unfac = 'Unfacilitated' # Default else elif (req.get("result").get("action") == "ProdDosageReco"): print("ProdDosageReco") Prod_Response = select_inquiry_response( req.get("result").get("parameters").get("ProductName"), "number_of_times_reco_tot_start_dosage", req.get("result").get("parameters").get("ProdIndication")) if Prod_Response != None: status = True; tuple = ("masterProd", 'Product Dosage Recommendation') globalList.append(tuple) # insert_into_temp("masterProd", 'Product Availability') if len(Prod_Response[0]) > 0: fac_unfac = 'Facilitated' # session["userRegion"] = req.get("result").get("parameters").get("UserRegion") # insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion")) # tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion")) # globalList.append(tuple) # session["productName"] = req.get("result").get("parameters").get("ProductName") # insert_into_temp("productName", req.get("result").get("parameters").get("ProductName")) tuple = ("productName", req.get("result").get("parameters").get("ProductName")) globalList.append(tuple) # session["userProfession"] = req.get("result").get("UserProfession") # insert_into_temp("userProfession", req.get("result").get("UserProfession")) # tuple = ("userOccupation", req.get("result").get("UserProfession")) # globalList.append(tuple) response = Prod_Response[0] + "Was this information useful?" # insert_into_temp("response", Prod_Response[0] + "Was this information useful?") tuple = ("response", Prod_Response[0] + "Was this information useful?") globalList.append(tuple) else: fac_unfac = 'UnFacilitated' response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID." # insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.") globalList.append(tuple) # session["fac_unfac"] = fac_unfac # insert_into_temp("fac_unfac",fac_unfac) tuple = ("fac_unfac", fac_unfac) globalList.append(tuple) insert_into_temp(globalList) else: status = False fac_unfac = 'Unfacilitated' elif (req.get("result").get("action") == "ProductAvailability-Yes" or req.get("result").get("action") == "ProductAppearance-Yes" or req.get("result").get("action") == "ProductGenericAvailability-Yes" or req.get("result").get("action") == "ProductDescription-Yes" or req.get("result").get("action") == "ProductWork-Yes" or req.get("result").get("action") == "ProductSideEffect-Yes" or req.get("result").get("action") == "ProductDosageReco-Yes"): row = select_temp_data() for item in row: if item[0] == "MainQuery": MainQuery = item[1] elif item[0] == "masterProd": masterProd = item[1] # elif item[0]=="userRegion": # userRegion = item[1] elif item[0] == "productName": productName = item[1] # elif item[0]=="userOccupation": # userProfession = item[1] elif item[0] == "response": response = item[1] elif item[0] == "fac_unfac": fac_unfac = item[1] print(item) insert_inquiry_details('Amer', userRegion, productName, MainQuery, userProfession, "agent", fac_unfac, datetime.datetime.utcnow(), datetime.datetime.utcnow(), 0, response, req.get("result").get("parameters").get("UserMailId"), masterProd ) truncate_temp_table() return { "speech": "Thank you for your time. Have a good day", "displayText": "Thank you for your time. Have a good day", "source": "agent" } elif (req.get("result").get("action") == "ProductAvailability-Email" or req.get("result").get("action") == "ProductAppearance-Email" or req.get("result").get("action") == "ProductGenericAvailability-Email" or req.get("result").get("action") == "ProductDescription-Email" or req.get("result").get("action") == "ProductWork-Email" or req.get("result").get("action") == "ProductSideEffect-Email" or req.get("result").get("action") == "ProductDosageReco-Email" or req.get("result").get("action") == "ProductAvailability-No" or req.get("result").get("action") == "ProductAppearance-No" or req.get("result").get("action") == "ProductGenericAvailability-No" or req.get("result").get("action") == "ProductDescription-No" or req.get("result").get("action") == "ProductWork-No" or req.get("result").get("action") == "ProductSideEffect-No" or req.get("result").get("action") == "ProductDosageReco-No"): row = select_temp_data() for item in row: if item[0]=="MainQuery": MainQuery = item[1] elif item[0]=="masterProd": masterProd = item[1] # elif item[0]=="userRegion": # userRegion = item[1] elif item[0]=="productName": productName = item[1] # elif item[0]=="userOccupation": # userProfession = item[1] elif item[0]=="response": response = item[1] elif item[0]=="fac_unfac": fac_unfac = item[1] print(item) insert_inquiry_details('Amer', userRegion, productName, MainQuery, userProfession, "agent", "UnFacilitated", datetime.datetime.utcnow(), datetime.datetime.utcnow(), 0, response, req.get("result").get("parameters").get("UserMailId"), masterProd ) truncate_temp_table() return { "speech": "Thank you for your time. Have a good day", "displayText": "Thank you for your time. Have a good day", "source": "agent" } else: status = False # final if Statement if status: # insert_inquiry_details('Amer', # req.get("result").get("parameters").get("UserRegion"), # req.get("result").get("parameters").get("ProductName"), # master_prod, # req.get("result").get("UserProfession"), # req.get("result").get("source"), # fac_unfac, # datetime.datetime.utcnow(), # datetime.datetime.utcnow(), # 0, # response # ) return { "speech": response, "displayText": response, "source": "agent" } else: # insert_inquiry_details('Amer', # req.get("result").get("parameters").get("UserRegion"), # req.get("result").get("parameters").get("ProductName"), # 'Data Not Found', # req.get("result").get("UserProfession"), # req.get("result").get("source"), # 'Unfacilitated', # datetime.datetime.utcnow(), # datetime.datetime.utcnow(), # 0, # "Details not found" # ) return { "speech": "Details Not found", "displayText": "Details Not found", "source": req.get("result").get("source") } elif (req.get("result").get("action") == "medical.search"): url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") print (url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) print("Medical Search") incoming_query = req.get("result").get("resolvedQuery") hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv' OutMap = {} (input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap) print(input_sentence) print(OutMap) # print(query for query in queries) queries = parser.parse_sentence(input_sentence) queryString = "" table = "" for query in queries: table = query.get_from().get_table() columns = query.get_select().get_columns() conditions = query.get_where().get_conditions() queryString = queryString + str(query) print("table:") print(table) # print(list(columns)) print(columns) print(columns[0]) # print(columns[1]) # xAxis = columns[0][0].split('.')[1] # yAxis = columns[1][0].split('.')[1] print(queryString) cur = conn.cursor() cur.execute(queryString) rows = cur.fetchall() cur.close() conn.close() # outText = ', '.join(str(x) for x in rows[0]) # outText = ', '.join(str(element).split(".")[0] for row in rows for element in row) count = 0 if len(conditions) != 0: whereColumn = [] whereValue = [] for i in range(0, len(conditions)): print(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')')) print(conditions[i][1].get_value().strip("'")) whereColumn.append(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')')) if " MAX" not in conditions[i][1].get_value() and " MIN" not in conditions[i][1].get_value(): whereValue.append(conditions[i][1].get_value().strip("'")) else: if " MAX" in conditions[i][1].get_value(): whereValue.append("max") else: whereValue.append("min") outText = "The " # if len(rows)==1: print("length of rows") print(len(rows)) print(rows) if len(rows) == 1: for row in rows: print(count) isLast = len(row) for element in row: isLast = isLast - 1 value = str(element).split(".")[0] if (columns[count][0] is not None): # print(columns) column = columns[count][0].split('.')[1] print(column) operation = columns[count][1] if (operation is None): print("The Operation is None") column = OutMap.get(column) whereValue1 = OutMap.get(whereValue[0]) if (OutMap.get(whereValue[0])) else whereValue[0] whereColumn1 = OutMap.get(whereColumn[0]) if (OutMap.get(whereColumn[0])) else whereColumn[ 0] try: print(whereValue[1]) print(whereColumn[1]) whereValue2 = OutMap.get(whereValue[1]) if (OutMap.get(whereValue[1])) else whereValue[ 1] whereColumn2 = OutMap.get(whereColumn[1]) if (OutMap.get(whereColumn[1])) else \ whereColumn[1] if 'whereColumn' in locals(): # outText = str(column) + " " + value + " in the " + str(whereColumn1) + " " + str( # whereValue1) + " has " + str(whereValue2) + " " + str(whereColumn2) outText = "The " + str(column) + " for " + str(whereColumn1) + " " + str( whereValue1) + " in " + str(whereColumn2) + " is " + value + "%" else: outText = outText + str(column) + " is " + value except IndexError: if 'whereColumn' in locals(): outText = str(column) + " " + value + " has " + str(whereValue1) + " " + str( whereColumn1) else: outText = outText + str(column) + " is " + value elif (operation is "COUNT"): table = OutMap.get(table) print("The Operation is " + str(operation)) if 'whereColumn' in locals(): outText = "There are " + value + " " + str(table) + " with " + str( whereValue[0]) + " " + str(whereColumn[0]) else: outText = "There are " + value + " " + str(table) else: # operation = OutMap.get(str(operation).lower()) column = OutMap.get(column) # whereValue = OutMap.get(whereValue) print("The Operation is " + str(operation)) if 'whereColumn' in locals(): outText = "There are " + value + " " + str(column) + " in " + str( whereValue[0]) + " for " + str(whereValue[1]) + " " + str(whereColumn[1]) else: if "what" in incoming_query: outText = "The " + OutMap.get(str(operation).lower()).lower() + " " + str( column) + " is " + value elif "how" in incoming_query: outText = "There are " + value + " " + str(column) if (isLast is not 0): outText = outText + " and the " count = count + 1 else: print(whereColumn) print(whereValue) print(table) print(columns[1][0]) column = columns[0][0].split('.')[1] column2 = columns[1][0].split('.')[1] sent_label = OutMap[column] sent_value = OutMap[column2] print(sent_label) outText = whereColumn[0] + " " + OutMap[whereValue[0]] + " has the following " + sent_label + ": " print(rows) print(columns) print(len(columns)) no_of_rows = len(rows) counter = no_of_rows for row in rows: counter = counter - 1 label = row[0] value = row[1] if counter != 0: outText = outText + str(column) + " " + str(label) + " has " + str(column2) + " of " + str( value) + ", " else: outText = outText + "whereas " + str(column) + " " + str(label) + " has " + str( column2) + " of " + str(value) # outText = "The" print(outText) return { "speech": outText, "displayText": outText, # "data": data, # "contextOut": [], "source": "Dhaval" } elif (req.get("result").get("action") == "medical.visualization"): url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") print (url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) print("Medical Visualization") # chartType = "line" incoming_query = req.get("result").get("resolvedQuery") print(incoming_query) chartType = req.get("result").get("parameters").get("chart-type") # if (chartType == "bar"): # chartType = "bar" # else: # chartType = "line" hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv' OutMap = {} (input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap) print(OutMap) print(input_sentence) queries = parser.parse_sentence(input_sentence) # queries = parser.parse_sentence(incoming_query) # print(query for query in queries) queryString = "" table = "" for query in queries: table = query.get_from().get_table() columns = query.get_select().get_columns() conditions = query.get_where().get_conditions() queryString = queryString + str(query) # chartType = req.get("result").get("parameters").get("chart-type") # print(chartType) print(queryString) cur = conn.cursor() cur.execute(queryString) rows = cur.fetchall() cur.close() conn.close() print(rows) print(list(columns)) print(len(columns)) # error handling if len(columns) <= 1: outText="Please rephrase the question" return { "speech": outText, "displayText": outText, # "data": data, # "contextOut": [], "source": "Dhaval" } elif (len(columns) > 1 & len(columns) <= 2): xAxis = columns[0][0].split('.')[1] yAxis = columns[1][0].split('.')[1] xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis print(xAxis) print(yAxis) print(chartType) df = pd.DataFrame(list(rows), columns=["label", "value"]) df['value'] = df['value'].fillna(0) agg_df = df.groupby(['label'], as_index=False).agg({"value": "sum"}) maxRecord = agg_df.ix[agg_df['value'].idxmax()].to_frame().T maxValue = agg_df['value'].max() print(maxRecord) print(maxValue) agg_df = agg_df.reset_index() minRecord = agg_df.ix[agg_df['value'].idxmin()].to_frame().T minValue = agg_df['value'].min() print(minRecord) print(minValue) agg_df['label'] = agg_df['label'].astype('str') agg_df['value'] = agg_df['value'].astype('str') agg_df.drop(columns=['index'], inplace=True) agg_df.reset_index(drop=True, inplace=True) print("agg_df:") print(agg_df) if chartType == 'geochart': for id, cn in enumerate(agg_df['label']): if cn == 'UK': agg_df['label'][id] = 'GB' chartData = agg_df.to_json(orient='records') # chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows] print("agg_df:") print(agg_df) print("chartData:") print(chartData) # chartData = json.dumps(chartData) # final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]' final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]' print(final_json) socketio.emit('chartgoogledata', final_json) outText = "The " + xAxis + " " + str( maxRecord['label'].values[0]) + " has maximum " + yAxis + " of " + str( maxValue) + " while the " + xAxis + " " + str( minRecord['label'].values[0]) + " has minimum " + yAxis + " of " + str( minValue) + ". Refer to the screen for more details." # outText = "Refer to the screen for more details." print(outText) return { "speech": outText, "displayText": outText, # "data": data, # "contextOut": [], "source": "Dhaval" } else: xAxis = columns[1][0].split('.')[1] yAxis = columns[2][0].split('.')[1] zAxis = columns[0][0].split('.')[1] xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis zAxis = OutMap.get(zAxis) if OutMap.get(zAxis) else zAxis print(xAxis) print(yAxis) print(zAxis) print(chartType) df = pd.DataFrame(list(rows), columns=["datatype", "country", "dq_score"]) df['dq_score'] = df['dq_score'].fillna(0) # print(df) agg_df = df.groupby(['datatype', 'country'], as_index=False)['dq_score'].sum() print(agg_df) maxRecord = agg_df.ix[agg_df['dq_score'].idxmax()].to_frame().T agg_df = agg_df.reset_index() minRecord = agg_df.ix[agg_df['dq_score'].idxmin()].to_frame().T print(maxRecord) print(minRecord) agg_df['datatype'] = agg_df['datatype'].astype('str') agg_df['country'] = agg_df['country'].astype('str') agg_df.drop(columns=['index'], inplace=True) # agg_df.reset_index(drop=True, inplace=True) print("agg_df:") print(agg_df) pd.options.mode.chained_assignment = None for i in range(len(agg_df['datatype'])): agg_df['datatype'][i] = agg_df['datatype'][i].replace(" ", "_") print(agg_df) unique_countries = set(agg_df['country']) unique_countries = list(unique_countries) unique_datatypes = set(agg_df['datatype']) unique_datatypes = list(unique_datatypes) df = agg_df df2 = pd.DataFrame(columns=['country', 'values']) df2['country'] = ['' for i in range(len(unique_countries))] for idx, cn in enumerate(unique_countries): df2['country'][idx] = cn df2['values'][idx] = {} for ind, val in enumerate(df2['values']): for idx, dtyp in enumerate(unique_datatypes): df2['values'][ind][dtyp] = 0 for ind, cn in enumerate(df['country']): for i, c in enumerate(df2['country']): dat = df['datatype'][ind] dqs = df['dq_score'][ind] if cn == c: df2['values'][i][dat] = dqs print(df2) agg_df = df2 chartData = agg_df.to_json(orient='records') # chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows] print("agg_df:") print(agg_df) print("chartData:") print(chartData) # chartData = json.dumps(chartData) # final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]' final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]' print(final_json) socketio.emit('chartgoogledata', final_json) # outText = "The " + xAxis + " " + str( # maxRecord['label'].values[0]) + " has maximum " + yAxis + " while the " + xAxis + " " + str( # minRecord['label'].values[0]) + " has minimum " + yAxis + ". Refer to the screen for more details." outText = "Refer to the screen for more details." print(outText) return { "speech": outText, "displayText": outText, # "data": data, # "contextOut": [], "source": "Dhaval" } elif is_Alexa_json == True: if (req.get("request").get("intent").get("name") == "medicalsearch"): url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") print (url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) print("Medical Search") incoming_query = req.get("request").get("intent").get("slots").get("message").get("value") hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv' # global OutMap OutMap = {} (input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap) print(input_sentence) print(OutMap) # print(query for query in queries) queries = parser.parse_sentence(input_sentence) queryString = "" table = "" for query in queries: table = query.get_from().get_table() columns = query.get_select().get_columns() conditions = query.get_where().get_conditions() queryString = queryString + str(query) print("table:") print(table) # print(list(columns)) print(columns) print(columns[0]) # print(columns[1]) # xAxis = columns[0][0].split('.')[1] # yAxis = columns[1][0].split('.')[1] print(queryString) cur = conn.cursor() cur.execute(queryString) rows = cur.fetchall() cur.close() conn.close() # outText = ', '.join(str(x) for x in rows[0]) # outText = ', '.join(str(element).split(".")[0] for row in rows for element in row) count = 0 if len(conditions) != 0: whereColumn = [] whereValue = [] for i in range(0, len(conditions)): print(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')')) print(conditions[i][1].get_value().strip("'")) whereColumn.append(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')')) if " MAX" not in conditions[i][1].get_value() and " MIN" not in conditions[i][1].get_value(): whereValue.append(conditions[i][1].get_value().strip("'")) else: if " MAX" in conditions[i][1].get_value(): whereValue.append("max") else: whereValue.append("min") outText = "The " # if len(rows)==1: print("length of rows") print(len(rows)) print(rows) if len(rows) == 1: for row in rows: print(count) isLast = len(row) for element in row: isLast = isLast - 1 value = str(element).split(".")[0] if (columns[count][0] is not None): # print(columns) column = columns[count][0].split('.')[1] print(column) operation = columns[count][1] if (operation is None): print("The Operation is None") column = OutMap.get(column) whereValue1 = OutMap.get(whereValue[0]) if (OutMap.get(whereValue[0])) else whereValue[0] whereColumn1 = OutMap.get(whereColumn[0]) if (OutMap.get(whereColumn[0])) else whereColumn[ 0] try: print(whereValue[1]) print(whereColumn[1]) whereValue2 = OutMap.get(whereValue[1]) if (OutMap.get(whereValue[1])) else whereValue[ 1] whereColumn2 = OutMap.get(whereColumn[1]) if (OutMap.get(whereColumn[1])) else \ whereColumn[1] if 'whereColumn' in locals(): # outText = str(column) + " " + value + " in the " + str(whereColumn1) + " " + str( # whereValue1) + " has " + str(whereValue2) + " " + str(whereColumn2) outText = "The " + str(column) + " for " + str(whereColumn1) + " " + str( whereValue1) + " in " + str(whereColumn2) + " is " + value + "%" else: outText = outText + str(column) + " is " + value except IndexError: if 'whereColumn' in locals(): outText = str(column) + " " + value + " has " + str(whereValue1) + " " + str( whereColumn1) else: outText = outText + str(column) + " is " + value elif (operation is "COUNT"): table = OutMap.get(table) print("The Operation is " + str(operation)) if 'whereColumn' in locals(): outText = "There are " + value + " " + str(table) + " with " + str( whereValue[0]) + " " + str(whereColumn[0]) else: outText = "There are " + value + " " + str(table) else: # operation = OutMap.get(str(operation).lower()) column = OutMap.get(column) # whereValue = OutMap.get(whereValue) print("The Operation is " + str(operation)) if 'whereColumn' in locals(): outText = "There are " + value + " " + str(column) + " in " + str( whereValue[0]) + " for " + str(whereValue[1]) + " " + str(whereColumn[1]) else: if "what" in incoming_query: outText = "The " + OutMap.get(str(operation).lower()).lower() + " " + str( column) + " is " + value elif "how" in incoming_query: outText = "There are " + value + " " + str(column) if (isLast is not 0): outText = outText + " and the " count = count + 1 else: print(whereColumn) print(whereValue) print(table) print(columns[1][0]) column = columns[0][0].split('.')[1] column2 = columns[1][0].split('.')[1] sent_label = OutMap[column] sent_value = OutMap[column2] print(sent_label) outText = whereColumn[0] + " " + OutMap[whereValue[0]] + " has the following " + sent_label + ": " print(rows) print(columns) print(len(columns)) no_of_rows = len(rows) counter = no_of_rows for row in rows: counter = counter - 1 label = row[0] value = row[1] if counter != 0: outText = outText + str(column) + " " + str(label) + " has " + str(column2) + " of " + str( value) + ", " else: outText = outText + "whereas " + str(column) + " " + str(label) + " has " + str( column2) + " of " + str(value) # outText = "The" print(outText) with open("response/alexa_response.json", 'r') as f: alexaResponse = json.load(f) alexaResponse["response"]["outputSpeech"]["text"] = outText return alexaResponse elif (req.get("request").get("intent").get("name") == "medicalvisualization"): url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv") print (url.path[1:]) conn = psycopg2.connect( database=url.path[1:], user=url.username, password=url.password, host=url.hostname, port=url.port ) print("Medical Visualization") # chartType = "line" incoming_query = req.get("request").get("intent").get("slots").get("message").get("value") print(incoming_query) chartType = req.get("request").get("intent").get("slots").get("charttypeslot").get("value") # if (chartType == "bar"): # chartType = "bar" # else: # chartType = "line" hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv' OutMap = {} (input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap) print(OutMap) print(input_sentence) queries = parser.parse_sentence(input_sentence) # queries = parser.parse_sentence(incoming_query) # print(query for query in queries) queryString = "" table = "" for query in queries: table = query.get_from().get_table() columns = query.get_select().get_columns() conditions = query.get_where().get_conditions() queryString = queryString + str(query) # chartType = req.get("result").get("parameters").get("chart-type") # print(chartType) print(queryString) cur = conn.cursor() cur.execute(queryString) rows = cur.fetchall() cur.close() conn.close() print(rows) print(list(columns)) if len(columns) <= 2: xAxis = columns[0][0].split('.')[1] yAxis = columns[1][0].split('.')[1] xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis print(xAxis) print(yAxis) print(chartType) df = pd.DataFrame(list(rows), columns=["label", "value"]) df['value'] = df['value'].fillna(0) agg_df = df.groupby(['label'], as_index=False).agg({"value": "sum"}) maxRecord = agg_df.ix[agg_df['value'].idxmax()].to_frame().T maxValue = agg_df['value'].max() print(maxRecord) print(maxValue) agg_df = agg_df.reset_index() minRecord = agg_df.ix[agg_df['value'].idxmin()].to_frame().T minValue = agg_df['value'].min() print(minRecord) print(minValue) agg_df['label'] = agg_df['label'].astype('str') agg_df['value'] = agg_df['value'].astype('str') agg_df.drop(columns=['index'], inplace=True) agg_df.reset_index(drop=True, inplace=True) print("agg_df:") print(agg_df) if (chartType == 'geochart' or chartType == 'geo chart' or chartType == 'joe chart'): for id, cn in enumerate(agg_df['label']): if cn == 'UK': agg_df['label'][id] = 'GB' chartData = agg_df.to_json(orient='records') # chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows] print("agg_df:") print(agg_df) print("chartData:") print(chartData) # chartData = json.dumps(chartData) # final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]' final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]' print(final_json) socketio.emit('chartgoogledata', final_json) outText = "The " + xAxis + " " + str( maxRecord['label'].values[0]) + " has maximum " + yAxis + " of " + str( maxValue) + " while the " + xAxis + " " + str( minRecord['label'].values[0]) + " has minimum " + yAxis + " of " + str( minValue) + ". Refer to the screen for more details." # outText = "Refer to the screen for more details." print(outText) with open("response/alexa_response.json", 'r') as f: alexaResponse = json.load(f) alexaResponse["response"]["outputSpeech"]["text"] = outText return alexaResponse else: xAxis = columns[1][0].split('.')[1] yAxis = columns[2][0].split('.')[1] zAxis = columns[0][0].split('.')[1] xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis zAxis = OutMap.get(zAxis) if OutMap.get(zAxis) else zAxis print(xAxis) print(yAxis) print(zAxis) print(chartType) df = pd.DataFrame(list(rows), columns=["datatype", "country", "dq_score"]) df['dq_score'] = df['dq_score'].fillna(0) # print(df) agg_df = df.groupby(['datatype', 'country'], as_index=False)['dq_score'].sum() print(agg_df) maxRecord = agg_df.ix[agg_df['dq_score'].idxmax()].to_frame().T agg_df = agg_df.reset_index() minRecord = agg_df.ix[agg_df['dq_score'].idxmin()].to_frame().T print(maxRecord) print(minRecord) agg_df['datatype'] = agg_df['datatype'].astype('str') agg_df['country'] = agg_df['country'].astype('str') agg_df.drop(columns=['index'], inplace=True) # agg_df.reset_index(drop=True, inplace=True) print("agg_df:") print(agg_df) pd.options.mode.chained_assignment = None for i in range(len(agg_df['datatype'])): agg_df['datatype'][i] = agg_df['datatype'][i].replace(" ", "_") print(agg_df) unique_countries = set(agg_df['country']) unique_countries = list(unique_countries) unique_datatypes = set(agg_df['datatype']) unique_datatypes = list(unique_datatypes) df = agg_df df2 = pd.DataFrame(columns=['country', 'values']) df2['country'] = ['' for i in range(len(unique_countries))] for idx, cn in enumerate(unique_countries): df2['country'][idx] = cn df2['values'][idx] = {} for ind, val in enumerate(df2['values']): for idx, dtyp in enumerate(unique_datatypes): df2['values'][ind][dtyp] = 0 for ind, cn in enumerate(df['country']): for i, c in enumerate(df2['country']): dat = df['datatype'][ind] dqs = df['dq_score'][ind] if cn == c: df2['values'][i][dat] = dqs print(df2) agg_df = df2 chartData = agg_df.to_json(orient='records') # chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows] print("agg_df:") print(agg_df) print("chartData:") print(chartData) # chartData = json.dumps(chartData) # final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]' final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]' print(final_json) socketio.emit('chartgoogledata', final_json) # outText = "The " + xAxis + " " + str( # maxRecord['label'].values[0]) + " has maximum " + yAxis + " while the " + xAxis + " " + str( # minRecord['label'].values[0]) + " has minimum " + yAxis + ". Refer to the screen for more details." outText = "Refer to the screen for more details." print(outText) with open("response/alexa_response.json", 'r') as f: alexaResponse = json.load(f) alexaResponse["response"]["outputSpeech"]["text"] = outText return alexaResponse except Exception as ex: print(str(ex)) if __name__ == '__main__': database = Database.Database() database.load("cognitiveSQL/database/HCM.sql") database.print_me() config = LangConfig.LangConfig() config.load("cognitiveSQL/lang/english.csv") parser = Parser.Parser(database, config) from os import sys, path sys.path.append(path.dirname(path.dirname(path.abspath(__file__)))) port = int(os.getenv('PORT', 5001)) print("Starting app on port %d" % port) #app.run(debug=True, port=port, host='0.0.0.0') socketio.run(app, debug=True, port=port, host='0.0.0.0')
56.232373
510
0.442948
7,682
91,715
5.200989
0.063916
0.027031
0.050758
0.061946
0.902863
0.899334
0.881839
0.868048
0.864519
0.860965
0
0.023357
0.438881
91,715
1,630
511
56.266871
0.753007
0.161686
0
0.803615
0
0.020542
0.158499
0.04016
0
0
0
0
0
1
0.009039
false
0.008217
0.023007
0.001643
0.046015
0.147083
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
26253ef2c14a27576629d61f62c4b678159d373d
113
py
Python
reptile/models/__init__.py
kartoza/kbims-reptile
4273857d7a2b8f373622f8e06149581bd43703c5
[ "MIT" ]
null
null
null
reptile/models/__init__.py
kartoza/kbims-reptile
4273857d7a2b8f373622f8e06149581bd43703c5
[ "MIT" ]
null
null
null
reptile/models/__init__.py
kartoza/kbims-reptile
4273857d7a2b8f373622f8e06149581bd43703c5
[ "MIT" ]
null
null
null
from reptile.models.reptile_collection_record import * # noqa from reptile.models.csv_document import * # noqa
37.666667
62
0.80531
15
113
5.866667
0.6
0.25
0.386364
0
0
0
0
0
0
0
0
0
0.123894
113
2
63
56.5
0.888889
0.079646
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
2691cb48325c0dab0b178d9d535c1c07fa1258c3
68,625
py
Python
benchmarks/SimResults/combinations_spec_ml_deepnet/cmp_calculixlibquantumzeusmpsjeng/power.py
TugberkArkose/MLScheduler
e493b6cbf7b9d29a2c9300d7dd6f0c2f102e4061
[ "Unlicense" ]
null
null
null
benchmarks/SimResults/combinations_spec_ml_deepnet/cmp_calculixlibquantumzeusmpsjeng/power.py
TugberkArkose/MLScheduler
e493b6cbf7b9d29a2c9300d7dd6f0c2f102e4061
[ "Unlicense" ]
null
null
null
benchmarks/SimResults/combinations_spec_ml_deepnet/cmp_calculixlibquantumzeusmpsjeng/power.py
TugberkArkose/MLScheduler
e493b6cbf7b9d29a2c9300d7dd6f0c2f102e4061
[ "Unlicense" ]
null
null
null
power = {'BUSES': {'Area': 1.33155, 'Bus/Area': 1.33155, 'Bus/Gate Leakage': 0.00662954, 'Bus/Peak Dynamic': 0.0, 'Bus/Runtime Dynamic': 0.0, 'Bus/Subthreshold Leakage': 0.0691322, 'Bus/Subthreshold Leakage with power gating': 0.0259246, 'Gate Leakage': 0.00662954, 'Peak Dynamic': 0.0, 'Runtime Dynamic': 0.0, 'Subthreshold Leakage': 0.0691322, 'Subthreshold Leakage with power gating': 0.0259246}, 'Core': [{'Area': 32.6082, 'Execution Unit/Area': 8.2042, 'Execution Unit/Complex ALUs/Area': 0.235435, 'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646, 'Execution Unit/Complex ALUs/Peak Dynamic': 0.385175, 'Execution Unit/Complex ALUs/Runtime Dynamic': 0.505222, 'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111, 'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163, 'Execution Unit/Floating Point Units/Area': 4.6585, 'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156, 'Execution Unit/Floating Point Units/Peak Dynamic': 2.03157, 'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033, 'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829, 'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061, 'Execution Unit/Gate Leakage': 0.122718, 'Execution Unit/Instruction Scheduler/Area': 2.17927, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.328073, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.00115349, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.20978, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.716942, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.017004, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00962066, 'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00730101, 'Execution Unit/Instruction Scheduler/Instruction Window/Area': 1.00996, 'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00529112, 'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 2.07911, 'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 1.24148, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0800117, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0455351, 'Execution Unit/Instruction Scheduler/Peak Dynamic': 4.84781, 'Execution Unit/Instruction Scheduler/ROB/Area': 0.841232, 'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.000856399, 'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.55892, 'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.712026, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.0178624, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00897339, 'Execution Unit/Instruction Scheduler/Runtime Dynamic': 2.67045, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.114878, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.0641291, 'Execution Unit/Integer ALUs/Area': 0.47087, 'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291, 'Execution Unit/Integer ALUs/Peak Dynamic': 0.397199, 'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344, 'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222, 'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833, 'Execution Unit/Peak Dynamic': 9.34665, 'Execution Unit/Register Files/Area': 0.570804, 'Execution Unit/Register Files/Floating Point RF/Area': 0.208131, 'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788, 'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.383807, 'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.0259897, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968, 'Execution Unit/Register Files/Gate Leakage': 0.000622708, 'Execution Unit/Register Files/Integer RF/Area': 0.362673, 'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992, 'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.334113, 'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.19221, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675, 'Execution Unit/Register Files/Peak Dynamic': 0.71792, 'Execution Unit/Register Files/Runtime Dynamic': 0.2182, 'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387, 'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643, 'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0442632, 'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00607074, 'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.912877, 'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 1.85311, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.0920413, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0345155, 'Execution Unit/Runtime Dynamic': 5.65236, 'Execution Unit/Subthreshold Leakage': 1.83518, 'Execution Unit/Subthreshold Leakage with power gating': 0.709678, 'Gate Leakage': 0.372997, 'Instruction Fetch Unit/Area': 5.86007, 'Instruction Fetch Unit/Branch Predictor/Area': 0.138516, 'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.0013933, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.0013933, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.00120667, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000463354, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045, 'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838, 'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732, 'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05, 'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602, 'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.00276111, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733, 'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00675438, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282, 'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954, 'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758, 'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867, 'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.013605, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357, 'Instruction Fetch Unit/Gate Leakage': 0.0590479, 'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323, 'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05, 'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827, 'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.184776, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682, 'Instruction Fetch Unit/Instruction Cache/Area': 3.14635, 'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931, 'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 6.43323, 'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.432272, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386, 'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799, 'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493, 'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404, 'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.627583, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104, 'Instruction Fetch Unit/Peak Dynamic': 8.96874, 'Instruction Fetch Unit/Runtime Dynamic': 1.26499, 'Instruction Fetch Unit/Subthreshold Leakage': 0.932587, 'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.408542, 'L2/Area': 4.53318, 'L2/Gate Leakage': 0.015464, 'L2/Peak Dynamic': 0.177133, 'L2/Runtime Dynamic': 0.0302027, 'L2/Subthreshold Leakage': 0.834142, 'L2/Subthreshold Leakage with power gating': 0.401066, 'Load Store Unit/Area': 8.80969, 'Load Store Unit/Data Cache/Area': 6.84535, 'Load Store Unit/Data Cache/Gate Leakage': 0.0279261, 'Load Store Unit/Data Cache/Peak Dynamic': 4.66179, 'Load Store Unit/Data Cache/Runtime Dynamic': 1.71348, 'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675, 'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085, 'Load Store Unit/Gate Leakage': 0.0351387, 'Load Store Unit/LoadQ/Area': 0.0836782, 'Load Store Unit/LoadQ/Gate Leakage': 0.00059896, 'Load Store Unit/LoadQ/Peak Dynamic': 0.110796, 'Load Store Unit/LoadQ/Runtime Dynamic': 0.110796, 'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961, 'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918, 'Load Store Unit/Peak Dynamic': 5.18713, 'Load Store Unit/Runtime Dynamic': 2.37068, 'Load Store Unit/StoreQ/Area': 0.322079, 'Load Store Unit/StoreQ/Gate Leakage': 0.00329971, 'Load Store Unit/StoreQ/Peak Dynamic': 0.273205, 'Load Store Unit/StoreQ/Runtime Dynamic': 0.54641, 'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621, 'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004, 'Load Store Unit/Subthreshold Leakage': 0.591622, 'Load Store Unit/Subthreshold Leakage with power gating': 0.283406, 'Memory Management Unit/Area': 0.434579, 'Memory Management Unit/Dtlb/Area': 0.0879726, 'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729, 'Memory Management Unit/Dtlb/Peak Dynamic': 0.0969613, 'Memory Management Unit/Dtlb/Runtime Dynamic': 0.0996073, 'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699, 'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485, 'Memory Management Unit/Gate Leakage': 0.00813591, 'Memory Management Unit/Itlb/Area': 0.301552, 'Memory Management Unit/Itlb/Gate Leakage': 0.00393464, 'Memory Management Unit/Itlb/Peak Dynamic': 0.399995, 'Memory Management Unit/Itlb/Runtime Dynamic': 0.0709071, 'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758, 'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842, 'Memory Management Unit/Peak Dynamic': 0.726121, 'Memory Management Unit/Runtime Dynamic': 0.170514, 'Memory Management Unit/Subthreshold Leakage': 0.0769113, 'Memory Management Unit/Subthreshold Leakage with power gating': 0.0399462, 'Peak Dynamic': 28.9675, 'Renaming Unit/Area': 0.369768, 'Renaming Unit/FP Front End RAT/Area': 0.168486, 'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00489731, 'Renaming Unit/FP Front End RAT/Peak Dynamic': 3.33511, 'Renaming Unit/FP Front End RAT/Runtime Dynamic': 1.33902, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0437281, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.024925, 'Renaming Unit/Free List/Area': 0.0414755, 'Renaming Unit/Free List/Gate Leakage': 4.15911e-05, 'Renaming Unit/Free List/Peak Dynamic': 0.0401324, 'Renaming Unit/Free List/Runtime Dynamic': 0.0527732, 'Renaming Unit/Free List/Subthreshold Leakage': 0.000670426, 'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000377987, 'Renaming Unit/Gate Leakage': 0.00863632, 'Renaming Unit/Int Front End RAT/Area': 0.114751, 'Renaming Unit/Int Front End RAT/Gate Leakage': 0.00038343, 'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.86945, 'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.343987, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00611897, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00348781, 'Renaming Unit/Peak Dynamic': 4.56169, 'Renaming Unit/Runtime Dynamic': 1.73578, 'Renaming Unit/Subthreshold Leakage': 0.070483, 'Renaming Unit/Subthreshold Leakage with power gating': 0.0362779, 'Runtime Dynamic': 11.2245, 'Subthreshold Leakage': 6.21877, 'Subthreshold Leakage with power gating': 2.58311}, {'Area': 32.0201, 'Execution Unit/Area': 7.68434, 'Execution Unit/Complex ALUs/Area': 0.235435, 'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646, 'Execution Unit/Complex ALUs/Peak Dynamic': 0.151333, 'Execution Unit/Complex ALUs/Runtime Dynamic': 0.321552, 'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111, 'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163, 'Execution Unit/Floating Point Units/Area': 4.6585, 'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156, 'Execution Unit/Floating Point Units/Peak Dynamic': 0.781427, 'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033, 'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829, 'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061, 'Execution Unit/Gate Leakage': 0.120359, 'Execution Unit/Instruction Scheduler/Area': 1.66526, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.275653, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.000977433, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.04181, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.292931, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.0143453, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00810519, 'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00568913, 'Execution Unit/Instruction Scheduler/Instruction Window/Area': 0.805223, 'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00414562, 'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 1.6763, 'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 0.472486, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0625755, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0355964, 'Execution Unit/Instruction Scheduler/Peak Dynamic': 3.82262, 'Execution Unit/Instruction Scheduler/ROB/Area': 0.584388, 'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.00056608, 'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.10451, 'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.238495, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.00906853, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00364446, 'Execution Unit/Instruction Scheduler/Runtime Dynamic': 1.00391, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.0859892, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.047346, 'Execution Unit/Integer ALUs/Area': 0.47087, 'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291, 'Execution Unit/Integer ALUs/Peak Dynamic': 0.215224, 'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344, 'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222, 'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833, 'Execution Unit/Peak Dynamic': 5.64152, 'Execution Unit/Register Files/Area': 0.570804, 'Execution Unit/Register Files/Floating Point RF/Area': 0.208131, 'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788, 'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.147628, 'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.0122868, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968, 'Execution Unit/Register Files/Gate Leakage': 0.000622708, 'Execution Unit/Register Files/Integer RF/Area': 0.362673, 'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992, 'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.146962, 'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.0908686, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675, 'Execution Unit/Register Files/Peak Dynamic': 0.29459, 'Execution Unit/Register Files/Runtime Dynamic': 0.103155, 'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387, 'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643, 'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0390912, 'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00537402, 'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.347449, 'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 0.75927, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.081478, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0305543, 'Execution Unit/Runtime Dynamic': 2.59327, 'Execution Unit/Subthreshold Leakage': 1.79543, 'Execution Unit/Subthreshold Leakage with power gating': 0.688821, 'Gate Leakage': 0.368936, 'Instruction Fetch Unit/Area': 5.85939, 'Instruction Fetch Unit/Branch Predictor/Area': 0.138516, 'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.00074453, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.00074453, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.000648415, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000250974, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045, 'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838, 'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732, 'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05, 'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602, 'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.00130533, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733, 'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00344281, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282, 'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954, 'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758, 'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867, 'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.00714095, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357, 'Instruction Fetch Unit/Gate Leakage': 0.0589979, 'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323, 'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05, 'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827, 'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.0873543, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682, 'Instruction Fetch Unit/Instruction Cache/Area': 3.14635, 'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931, 'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 5.55648, 'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.210162, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386, 'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799, 'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493, 'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404, 'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.296695, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104, 'Instruction Fetch Unit/Peak Dynamic': 8.04467, 'Instruction Fetch Unit/Runtime Dynamic': 0.604795, 'Instruction Fetch Unit/Subthreshold Leakage': 0.932286, 'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.40843, 'L2/Area': 4.53318, 'L2/Gate Leakage': 0.015464, 'L2/Peak Dynamic': 0.0825892, 'L2/Runtime Dynamic': 0.0157535, 'L2/Subthreshold Leakage': 0.834142, 'L2/Subthreshold Leakage with power gating': 0.401066, 'Load Store Unit/Area': 8.80901, 'Load Store Unit/Data Cache/Area': 6.84535, 'Load Store Unit/Data Cache/Gate Leakage': 0.0279261, 'Load Store Unit/Data Cache/Peak Dynamic': 3.06519, 'Load Store Unit/Data Cache/Runtime Dynamic': 0.915379, 'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675, 'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085, 'Load Store Unit/Gate Leakage': 0.0350888, 'Load Store Unit/LoadQ/Area': 0.0836782, 'Load Store Unit/LoadQ/Gate Leakage': 0.00059896, 'Load Store Unit/LoadQ/Peak Dynamic': 0.0591423, 'Load Store Unit/LoadQ/Runtime Dynamic': 0.0591422, 'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961, 'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918, 'Load Store Unit/Peak Dynamic': 3.34447, 'Load Store Unit/Runtime Dynamic': 1.26619, 'Load Store Unit/StoreQ/Area': 0.322079, 'Load Store Unit/StoreQ/Gate Leakage': 0.00329971, 'Load Store Unit/StoreQ/Peak Dynamic': 0.145835, 'Load Store Unit/StoreQ/Runtime Dynamic': 0.291669, 'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621, 'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004, 'Load Store Unit/Subthreshold Leakage': 0.591321, 'Load Store Unit/Subthreshold Leakage with power gating': 0.283293, 'Memory Management Unit/Area': 0.4339, 'Memory Management Unit/Dtlb/Area': 0.0879726, 'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729, 'Memory Management Unit/Dtlb/Peak Dynamic': 0.0517572, 'Memory Management Unit/Dtlb/Runtime Dynamic': 0.0529894, 'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699, 'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485, 'Memory Management Unit/Gate Leakage': 0.00808595, 'Memory Management Unit/Itlb/Area': 0.301552, 'Memory Management Unit/Itlb/Gate Leakage': 0.00393464, 'Memory Management Unit/Itlb/Peak Dynamic': 0.345482, 'Memory Management Unit/Itlb/Runtime Dynamic': 0.0344773, 'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758, 'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842, 'Memory Management Unit/Peak Dynamic': 0.5905, 'Memory Management Unit/Runtime Dynamic': 0.0874667, 'Memory Management Unit/Subthreshold Leakage': 0.0766103, 'Memory Management Unit/Subthreshold Leakage with power gating': 0.0398333, 'Peak Dynamic': 21.2932, 'Renaming Unit/Area': 0.303608, 'Renaming Unit/FP Front End RAT/Area': 0.131045, 'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00351123, 'Renaming Unit/FP Front End RAT/Peak Dynamic': 2.51468, 'Renaming Unit/FP Front End RAT/Runtime Dynamic': 0.388343, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0308571, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.0175885, 'Renaming Unit/Free List/Area': 0.0340654, 'Renaming Unit/Free List/Gate Leakage': 2.5481e-05, 'Renaming Unit/Free List/Peak Dynamic': 0.0306032, 'Renaming Unit/Free List/Runtime Dynamic': 0.0179423, 'Renaming Unit/Free List/Subthreshold Leakage': 0.000370144, 'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000201064, 'Renaming Unit/Gate Leakage': 0.00708398, 'Renaming Unit/Int Front End RAT/Area': 0.0941223, 'Renaming Unit/Int Front End RAT/Gate Leakage': 0.000283242, 'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.731965, 'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.14182, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00435488, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00248228, 'Renaming Unit/Peak Dynamic': 3.58947, 'Renaming Unit/Runtime Dynamic': 0.548105, 'Renaming Unit/Subthreshold Leakage': 0.0552466, 'Renaming Unit/Subthreshold Leakage with power gating': 0.0276461, 'Runtime Dynamic': 5.11558, 'Subthreshold Leakage': 6.16288, 'Subthreshold Leakage with power gating': 2.55328}, {'Area': 32.0201, 'Execution Unit/Area': 7.68434, 'Execution Unit/Complex ALUs/Area': 0.235435, 'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646, 'Execution Unit/Complex ALUs/Peak Dynamic': 0.00133201, 'Execution Unit/Complex ALUs/Runtime Dynamic': 0.203735, 'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111, 'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163, 'Execution Unit/Floating Point Units/Area': 4.6585, 'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156, 'Execution Unit/Floating Point Units/Peak Dynamic': 0.00678809, 'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033, 'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829, 'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061, 'Execution Unit/Gate Leakage': 0.120359, 'Execution Unit/Instruction Scheduler/Area': 1.66526, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.275653, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.000977433, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.04181, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.171112, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.0143453, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00810519, 'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00568913, 'Execution Unit/Instruction Scheduler/Instruction Window/Area': 0.805223, 'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00414562, 'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 1.6763, 'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 0.275998, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0625755, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0355964, 'Execution Unit/Instruction Scheduler/Peak Dynamic': 3.82262, 'Execution Unit/Instruction Scheduler/ROB/Area': 0.584388, 'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.00056608, 'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.10451, 'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.139314, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.00906853, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00364446, 'Execution Unit/Instruction Scheduler/Runtime Dynamic': 0.586425, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.0859892, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.047346, 'Execution Unit/Integer ALUs/Area': 0.47087, 'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291, 'Execution Unit/Integer ALUs/Peak Dynamic': 0.194662, 'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344, 'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222, 'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833, 'Execution Unit/Peak Dynamic': 4.21597, 'Execution Unit/Register Files/Area': 0.570804, 'Execution Unit/Register Files/Floating Point RF/Area': 0.208131, 'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788, 'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.00128242, 'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.00717722, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968, 'Execution Unit/Register Files/Gate Leakage': 0.000622708, 'Execution Unit/Register Files/Integer RF/Area': 0.362673, 'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992, 'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.0524154, 'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.05308, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675, 'Execution Unit/Register Files/Peak Dynamic': 0.0536978, 'Execution Unit/Register Files/Runtime Dynamic': 0.0602572, 'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387, 'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643, 'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0390912, 'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00537402, 'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.110758, 'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 0.289621, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.081478, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0305543, 'Execution Unit/Runtime Dynamic': 1.54542, 'Execution Unit/Subthreshold Leakage': 1.79543, 'Execution Unit/Subthreshold Leakage with power gating': 0.688821, 'Gate Leakage': 0.368936, 'Instruction Fetch Unit/Area': 5.85939, 'Instruction Fetch Unit/Branch Predictor/Area': 0.138516, 'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.00225606, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.00225606, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.00204424, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000834688, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045, 'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838, 'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732, 'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05, 'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602, 'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.000762498, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733, 'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00731886, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282, 'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954, 'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758, 'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867, 'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.0188005, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357, 'Instruction Fetch Unit/Gate Leakage': 0.0589979, 'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323, 'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05, 'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827, 'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.0510271, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682, 'Instruction Fetch Unit/Instruction Cache/Area': 3.14635, 'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931, 'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 3.24576, 'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.172822, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386, 'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799, 'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493, 'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404, 'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.173311, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104, 'Instruction Fetch Unit/Peak Dynamic': 5.6218, 'Instruction Fetch Unit/Runtime Dynamic': 0.42328, 'Instruction Fetch Unit/Subthreshold Leakage': 0.932286, 'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.40843, 'L2/Area': 4.53318, 'L2/Gate Leakage': 0.015464, 'L2/Peak Dynamic': 0.00724716, 'L2/Runtime Dynamic': 0.00222875, 'L2/Subthreshold Leakage': 0.834142, 'L2/Subthreshold Leakage with power gating': 0.401066, 'Load Store Unit/Area': 8.80901, 'Load Store Unit/Data Cache/Area': 6.84535, 'Load Store Unit/Data Cache/Gate Leakage': 0.0279261, 'Load Store Unit/Data Cache/Peak Dynamic': 2.47284, 'Load Store Unit/Data Cache/Runtime Dynamic': 0.597205, 'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675, 'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085, 'Load Store Unit/Gate Leakage': 0.0350888, 'Load Store Unit/LoadQ/Area': 0.0836782, 'Load Store Unit/LoadQ/Gate Leakage': 0.00059896, 'Load Store Unit/LoadQ/Peak Dynamic': 0.0399785, 'Load Store Unit/LoadQ/Runtime Dynamic': 0.0399786, 'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961, 'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918, 'Load Store Unit/Peak Dynamic': 2.66163, 'Load Store Unit/Runtime Dynamic': 0.834345, 'Load Store Unit/StoreQ/Area': 0.322079, 'Load Store Unit/StoreQ/Gate Leakage': 0.00329971, 'Load Store Unit/StoreQ/Peak Dynamic': 0.0985802, 'Load Store Unit/StoreQ/Runtime Dynamic': 0.197161, 'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621, 'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004, 'Load Store Unit/Subthreshold Leakage': 0.591321, 'Load Store Unit/Subthreshold Leakage with power gating': 0.283293, 'Memory Management Unit/Area': 0.4339, 'Memory Management Unit/Dtlb/Area': 0.0879726, 'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729, 'Memory Management Unit/Dtlb/Peak Dynamic': 0.0349865, 'Memory Management Unit/Dtlb/Runtime Dynamic': 0.035071, 'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699, 'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485, 'Memory Management Unit/Gate Leakage': 0.00808595, 'Memory Management Unit/Itlb/Area': 0.301552, 'Memory Management Unit/Itlb/Gate Leakage': 0.00393464, 'Memory Management Unit/Itlb/Peak Dynamic': 0.20181, 'Memory Management Unit/Itlb/Runtime Dynamic': 0.0284037, 'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758, 'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842, 'Memory Management Unit/Peak Dynamic': 0.418019, 'Memory Management Unit/Runtime Dynamic': 0.0634747, 'Memory Management Unit/Subthreshold Leakage': 0.0766103, 'Memory Management Unit/Subthreshold Leakage with power gating': 0.0398333, 'Peak Dynamic': 16.5141, 'Renaming Unit/Area': 0.303608, 'Renaming Unit/FP Front End RAT/Area': 0.131045, 'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00351123, 'Renaming Unit/FP Front End RAT/Peak Dynamic': 2.51468, 'Renaming Unit/FP Front End RAT/Runtime Dynamic': 0.00337298, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0308571, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.0175885, 'Renaming Unit/Free List/Area': 0.0340654, 'Renaming Unit/Free List/Gate Leakage': 2.5481e-05, 'Renaming Unit/Free List/Peak Dynamic': 0.0306032, 'Renaming Unit/Free List/Runtime Dynamic': 0.00776117, 'Renaming Unit/Free List/Subthreshold Leakage': 0.000370144, 'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000201064, 'Renaming Unit/Gate Leakage': 0.00708398, 'Renaming Unit/Int Front End RAT/Area': 0.0941223, 'Renaming Unit/Int Front End RAT/Gate Leakage': 0.000283242, 'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.731965, 'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.0872837, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00435488, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00248228, 'Renaming Unit/Peak Dynamic': 3.58947, 'Renaming Unit/Runtime Dynamic': 0.0984179, 'Renaming Unit/Subthreshold Leakage': 0.0552466, 'Renaming Unit/Subthreshold Leakage with power gating': 0.0276461, 'Runtime Dynamic': 2.96716, 'Subthreshold Leakage': 6.16288, 'Subthreshold Leakage with power gating': 2.55328}, {'Area': 32.0201, 'Execution Unit/Area': 7.68434, 'Execution Unit/Complex ALUs/Area': 0.235435, 'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646, 'Execution Unit/Complex ALUs/Peak Dynamic': 0.00108073, 'Execution Unit/Complex ALUs/Runtime Dynamic': 0.203537, 'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111, 'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163, 'Execution Unit/Floating Point Units/Area': 4.6585, 'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156, 'Execution Unit/Floating Point Units/Peak Dynamic': 0.00538139, 'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033, 'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829, 'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061, 'Execution Unit/Gate Leakage': 0.120359, 'Execution Unit/Instruction Scheduler/Area': 1.66526, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.275653, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.000977433, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.04181, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.0639956, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.0143453, 'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00810519, 'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00568913, 'Execution Unit/Instruction Scheduler/Instruction Window/Area': 0.805223, 'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00414562, 'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 1.6763, 'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 0.103222, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0625755, 'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0355964, 'Execution Unit/Instruction Scheduler/Peak Dynamic': 3.82262, 'Execution Unit/Instruction Scheduler/ROB/Area': 0.584388, 'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.00056608, 'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.10451, 'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.0521032, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.00906853, 'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00364446, 'Execution Unit/Instruction Scheduler/Runtime Dynamic': 0.219321, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.0859892, 'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.047346, 'Execution Unit/Integer ALUs/Area': 0.47087, 'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291, 'Execution Unit/Integer ALUs/Peak Dynamic': 0.0723666, 'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344, 'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222, 'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833, 'Execution Unit/Peak Dynamic': 3.97406, 'Execution Unit/Register Files/Area': 0.570804, 'Execution Unit/Register Files/Floating Point RF/Area': 0.208131, 'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788, 'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.00101666, 'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.00268426, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698, 'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968, 'Execution Unit/Register Files/Gate Leakage': 0.000622708, 'Execution Unit/Register Files/Integer RF/Area': 0.362673, 'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992, 'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.0198335, 'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.0198518, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175, 'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675, 'Execution Unit/Register Files/Peak Dynamic': 0.0208501, 'Execution Unit/Register Files/Runtime Dynamic': 0.022536, 'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387, 'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643, 'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0390912, 'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00537402, 'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.0420538, 'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 0.117301, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.081478, 'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0305543, 'Execution Unit/Runtime Dynamic': 0.968072, 'Execution Unit/Subthreshold Leakage': 1.79543, 'Execution Unit/Subthreshold Leakage with power gating': 0.688821, 'Gate Leakage': 0.368936, 'Instruction Fetch Unit/Area': 5.85939, 'Instruction Fetch Unit/Branch Predictor/Area': 0.138516, 'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.000629764, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.000629764, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719, 'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.000553658, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344, 'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000217139, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347, 'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045, 'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838, 'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732, 'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05, 'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602, 'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.000285172, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505, 'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733, 'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00209836, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703, 'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282, 'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954, 'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758, 'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867, 'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.00585466, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682, 'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357, 'Instruction Fetch Unit/Gate Leakage': 0.0589979, 'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323, 'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05, 'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827, 'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.019084, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885, 'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682, 'Instruction Fetch Unit/Instruction Cache/Area': 3.14635, 'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931, 'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 1.21391, 'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.0849083, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022, 'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386, 'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799, 'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493, 'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404, 'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.0648178, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943, 'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104, 'Instruction Fetch Unit/Peak Dynamic': 3.49133, 'Instruction Fetch Unit/Runtime Dynamic': 0.176763, 'Instruction Fetch Unit/Subthreshold Leakage': 0.932286, 'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.40843, 'L2/Area': 4.53318, 'L2/Gate Leakage': 0.015464, 'L2/Peak Dynamic': 0.0308615, 'L2/Runtime Dynamic': 0.00946088, 'L2/Subthreshold Leakage': 0.834142, 'L2/Subthreshold Leakage with power gating': 0.401066, 'Load Store Unit/Area': 8.80901, 'Load Store Unit/Data Cache/Area': 6.84535, 'Load Store Unit/Data Cache/Gate Leakage': 0.0279261, 'Load Store Unit/Data Cache/Peak Dynamic': 1.57562, 'Load Store Unit/Data Cache/Runtime Dynamic': 0.177673, 'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675, 'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085, 'Load Store Unit/Gate Leakage': 0.0350888, 'Load Store Unit/LoadQ/Area': 0.0836782, 'Load Store Unit/LoadQ/Gate Leakage': 0.00059896, 'Load Store Unit/LoadQ/Peak Dynamic': 0.0109511, 'Load Store Unit/LoadQ/Runtime Dynamic': 0.0109512, 'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961, 'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918, 'Load Store Unit/Peak Dynamic': 1.62733, 'Load Store Unit/Runtime Dynamic': 0.242632, 'Load Store Unit/StoreQ/Area': 0.322079, 'Load Store Unit/StoreQ/Gate Leakage': 0.00329971, 'Load Store Unit/StoreQ/Peak Dynamic': 0.0270036, 'Load Store Unit/StoreQ/Runtime Dynamic': 0.0540078, 'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621, 'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004, 'Load Store Unit/Subthreshold Leakage': 0.591321, 'Load Store Unit/Subthreshold Leakage with power gating': 0.283293, 'Memory Management Unit/Area': 0.4339, 'Memory Management Unit/Dtlb/Area': 0.0879726, 'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729, 'Memory Management Unit/Dtlb/Peak Dynamic': 0.00958367, 'Memory Management Unit/Dtlb/Runtime Dynamic': 0.010047, 'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699, 'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485, 'Memory Management Unit/Gate Leakage': 0.00808595, 'Memory Management Unit/Itlb/Area': 0.301552, 'Memory Management Unit/Itlb/Gate Leakage': 0.00393464, 'Memory Management Unit/Itlb/Peak Dynamic': 0.0754762, 'Memory Management Unit/Itlb/Runtime Dynamic': 0.0139203, 'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758, 'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842, 'Memory Management Unit/Peak Dynamic': 0.248048, 'Memory Management Unit/Runtime Dynamic': 0.0239673, 'Memory Management Unit/Subthreshold Leakage': 0.0766103, 'Memory Management Unit/Subthreshold Leakage with power gating': 0.0398333, 'Peak Dynamic': 12.9611, 'Renaming Unit/Area': 0.303608, 'Renaming Unit/FP Front End RAT/Area': 0.131045, 'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00351123, 'Renaming Unit/FP Front End RAT/Peak Dynamic': 2.51468, 'Renaming Unit/FP Front End RAT/Runtime Dynamic': 0.00267437, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0308571, 'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.0175885, 'Renaming Unit/Free List/Area': 0.0340654, 'Renaming Unit/Free List/Gate Leakage': 2.5481e-05, 'Renaming Unit/Free List/Peak Dynamic': 0.0306032, 'Renaming Unit/Free List/Runtime Dynamic': 0.00291985, 'Renaming Unit/Free List/Subthreshold Leakage': 0.000370144, 'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000201064, 'Renaming Unit/Gate Leakage': 0.00708398, 'Renaming Unit/Int Front End RAT/Area': 0.0941223, 'Renaming Unit/Int Front End RAT/Gate Leakage': 0.000283242, 'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.731965, 'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.0328993, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00435488, 'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00248228, 'Renaming Unit/Peak Dynamic': 3.58947, 'Renaming Unit/Runtime Dynamic': 0.0384935, 'Renaming Unit/Subthreshold Leakage': 0.0552466, 'Renaming Unit/Subthreshold Leakage with power gating': 0.0276461, 'Runtime Dynamic': 1.45939, 'Subthreshold Leakage': 6.16288, 'Subthreshold Leakage with power gating': 2.55328}], 'DRAM': {'Area': 0, 'Gate Leakage': 0, 'Peak Dynamic': 2.2230748066814963, 'Runtime Dynamic': 2.2230748066814963, 'Subthreshold Leakage': 4.252, 'Subthreshold Leakage with power gating': 4.252}, 'L3': [{'Area': 61.9075, 'Gate Leakage': 0.0484137, 'Peak Dynamic': 0.308478, 'Runtime Dynamic': 0.159019, 'Subthreshold Leakage': 6.80085, 'Subthreshold Leakage with power gating': 3.32364}], 'Processor': {'Area': 191.908, 'Gate Leakage': 1.53485, 'Peak Dynamic': 80.0444, 'Peak Power': 113.157, 'Runtime Dynamic': 20.9257, 'Subthreshold Leakage': 31.5774, 'Subthreshold Leakage with power gating': 13.9484, 'Total Cores/Area': 128.669, 'Total Cores/Gate Leakage': 1.4798, 'Total Cores/Peak Dynamic': 79.7359, 'Total Cores/Runtime Dynamic': 20.7667, 'Total Cores/Subthreshold Leakage': 24.7074, 'Total Cores/Subthreshold Leakage with power gating': 10.2429, 'Total L3s/Area': 61.9075, 'Total L3s/Gate Leakage': 0.0484137, 'Total L3s/Peak Dynamic': 0.308478, 'Total L3s/Runtime Dynamic': 0.159019, 'Total L3s/Subthreshold Leakage': 6.80085, 'Total L3s/Subthreshold Leakage with power gating': 3.32364, 'Total Leakage': 33.1122, 'Total NoCs/Area': 1.33155, 'Total NoCs/Gate Leakage': 0.00662954, 'Total NoCs/Peak Dynamic': 0.0, 'Total NoCs/Runtime Dynamic': 0.0, 'Total NoCs/Subthreshold Leakage': 0.0691322, 'Total NoCs/Subthreshold Leakage with power gating': 0.0259246}}
75.082057
124
0.682157
8,082
68,625
5.786315
0.0683
0.123511
0.112905
0.093403
0.937453
0.928857
0.916818
0.885363
0.859938
0.841634
0
0.132209
0.224277
68,625
914
125
75.082057
0.746271
0
0
0.642232
0
0
0.657258
0.048087
0
0
0
0
0
1
0
false
0
0
0
0
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
1
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
26acf23bc5d24877e88ff73f48e535513d791bab
4,930
py
Python
merrill_feature/feature_selection/iterative.py
edazizovv/merrill_feature
59c7fd10e833a3376ee8ca3c631a73f0a2357c4f
[ "MIT" ]
null
null
null
merrill_feature/feature_selection/iterative.py
edazizovv/merrill_feature
59c7fd10e833a3376ee8ca3c631a73f0a2357c4f
[ "MIT" ]
null
null
null
merrill_feature/feature_selection/iterative.py
edazizovv/merrill_feature
59c7fd10e833a3376ee8ca3c631a73f0a2357c4f
[ "MIT" ]
null
null
null
# # import numpy # # def up(x_train, y_train, x_test, y_test, model, model_kwg, on): done = False yield_on_train__best = 0 var_on_train__best = -1 mask = [False] * x_train.shape[1] codes = numpy.array(numpy.arange(x_train.shape[1])) while not done: improved_ix = [] improved_value = [] for i in range(len(mask)): if not mask[i]: yield_on_train__average = [] var_on_train__average = [] mask_copy = [x for x in mask] mask_copy[i] = True for _ in range(10): still = model(**model_kwg) still.still(x_train[:, codes[mask_copy]], y_train, x_test, y_test) summary = still.plot(X_train=x_train, Y_train=y_train, X_test=x_test, Y_test=y_test, on='filt', do_plot=False) yield_on_train = summary[0].values[0, 0] var_on_train = summary[0].values[0, 3] yield_on_train__average.append(yield_on_train) var_on_train__average.append(var_on_train) yield_on_train__average = numpy.mean(yield_on_train__average) var_on_train__average = numpy.mean(var_on_train__average) yield_criteria = yield_on_train__average > yield_on_train__best var_criteria = var_on_train__average < var_on_train__best if on == 'yor': if yield_criteria: improved_ix.append(i) improved_value.append(yield_on_train__average) elif on == 'vor': if var_criteria: improved_ix.append(i) improved_value.append(var_on_train__average) else: raise Exception("Feature Selection Iterative: Up: Invalid target specification - should be valued" "as either 'yor' or 'vor'") improved_ix = numpy.array(improved_ix) improved_value = numpy.array(improved_value) if len(improved_ix) == 0: done = True if on == 'yor' or on == 'vor': max_ix = improved_value.argmax() else: raise Exception("Feature Selection Iterative: Up: Invalid target specification - should be valued" "as either 'yor' or 'vor'") mask[max_ix] = True if all(mask): done = True return mask def down(x_train, y_train, x_test, y_test, model, m_kwg, on): done = False yield_on_train__best = 0 var_on_train__best = -1 mask = [True] * x_train.shape[1] codes = numpy.array(numpy.arange(x_train.shape[1])) while not done: improved_ix = [] improved_value = [] for i in range(len(mask)): if mask[i]: yield_on_train__average = [] var_on_train__average = [] mask_copy = [x for x in mask] mask_copy[i] = False for _ in range(10): still = model(**m_kwg) still.still(x_train[:, codes[mask_copy]], y_train, x_test, y_test) summary = still.plot(X_train=x_train, Y_train=y_train, X_test=x_test, Y_test=y_test, on='filt', do_plot=False) yield_on_train = summary[0].values[0, 0] var_on_train = summary[0].values[0, 3] yield_on_train__average.append(yield_on_train) var_on_train__average.append(var_on_train) yield_on_train__average = numpy.mean(yield_on_train__average) var_on_train__average = numpy.mean(var_on_train__average) yield_criteria = yield_on_train__average > yield_on_train__best var_criteria = var_on_train__average < var_on_train__best if on == 'yor': if yield_criteria: improved_ix.append(i) improved_value.append(yield_on_train__average) elif on == 'vor': if var_criteria: improved_ix.append(i) improved_value.append(var_on_train__average) else: raise Exception("Feature Selection Iterative: Down: Cannot decide by multiple target") improved_ix = numpy.array(improved_ix) improved_value = numpy.array(improved_value) if len(improved_ix) == 0: done = True if on == 'yor' or on == 'vor': max_ix = improved_value.argmax() else: raise Exception("Feature Selection Iterative: Down: Cannot decide by multiple target") if numpy.array(mask).sum() == 1: done = True else: mask[max_ix] = False return mask
31.202532
130
0.547262
603
4,930
4.092869
0.127695
0.113452
0.136143
0.092383
0.938412
0.938412
0.920583
0.920583
0.920583
0.898703
0
0.008657
0.367343
4,930
157
131
31.401274
0.782623
0
0
0.852941
0
0
0.075924
0
0
0
0
0
0
1
0.019608
false
0
0.009804
0
0.04902
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
26b00337ce380266ba83683fbe0b62d87dd1b24b
53
py
Python
example_python_proj/__init__.py
ryansingman/example-python-proj
9c165ce7262e6f27b1d561c7d1e132b01f3f1f1d
[ "MIT" ]
null
null
null
example_python_proj/__init__.py
ryansingman/example-python-proj
9c165ce7262e6f27b1d561c7d1e132b01f3f1f1d
[ "MIT" ]
null
null
null
example_python_proj/__init__.py
ryansingman/example-python-proj
9c165ce7262e6f27b1d561c7d1e132b01f3f1f1d
[ "MIT" ]
1
2021-04-14T23:14:19.000Z
2021-04-14T23:14:19.000Z
from .my_print import my_print from .add import add
13.25
30
0.792453
10
53
4
0.5
0.35
0
0
0
0
0
0
0
0
0
0
0.169811
53
3
31
17.666667
0.909091
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0.5
1
0
0
null
1
0
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
1
0
7
f817e3aca8793fa3bb72aea09f42c9f9768c22c0
178
py
Python
kolibri/core/models.py
arceduardvincent/kolibri
26073dda2569bb38bfe1e08ba486e96f650d10ce
[ "MIT" ]
null
null
null
kolibri/core/models.py
arceduardvincent/kolibri
26073dda2569bb38bfe1e08ba486e96f650d10ce
[ "MIT" ]
3
2016-05-24T21:12:01.000Z
2017-03-09T22:43:08.000Z
kolibri/core/models.py
DXCanas/kolibri
4571fc5e5482a2dc9cd8f93dd45222a69d8a68b4
[ "MIT" ]
1
2021-07-26T11:38:29.000Z
2021-07-26T11:38:29.000Z
from __future__ import absolute_import from __future__ import print_function from __future__ import unicode_literals from kolibri.plugins import registry registry.initialize()
22.25
39
0.870787
22
178
6.363636
0.545455
0.214286
0.342857
0
0
0
0
0
0
0
0
0
0.106742
178
7
40
25.428571
0.880503
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
0.8
0
0.8
0.2
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
f874daa826fde3a371eab605422481cf7db37540
8,244
py
Python
fit_qs.py
gdbbzq/Pynamics_demo
fdf5cba3477ce00b3eea42d7b6f532ceed358409
[ "MIT" ]
null
null
null
fit_qs.py
gdbbzq/Pynamics_demo
fdf5cba3477ce00b3eea42d7b6f532ceed358409
[ "MIT" ]
null
null
null
fit_qs.py
gdbbzq/Pynamics_demo
fdf5cba3477ce00b3eea42d7b6f532ceed358409
[ "MIT" ]
null
null
null
# [t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3] = fit_10() import numpy def fit_10(time_step): #fit for 10mm/s tinitial = 0 tfinal = 20 tstep = time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [59.39,0.09915,1.046,49.89,0.1134,4.763,4.963,0.2814,6.505] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [407.5,0.007948,0.01161,17,0.2033,-0.2733,1.725,0.4184,6.076] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [65.4,0.08329,-0.0815,8.104,0.2372,6.337,0.7624,0.5186,4.748] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_20(time_step): #fit for 20mm/s tinitial = 0 tfinal = 10 tstep = time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [54.05,0.2079,0.8322,37.66,0.2473,4.563,3.95,0.6362,6.234] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [73.64,0.247,-0.175,357.2,0.5185,2.136,345,0.5222,5.283] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [58.86,0.2063,-0.05415,17.15,1.042,-2.215,15.12,1.081,0.7287] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_30(time_step): #fit for 30mm/s tinitial = 0 tfinal = 200/30 tstep = time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [88.94,0.4628,-0.1873,128.6,0.6458,2.73,78.07,0.7099,5.841] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [64.41,0.251,0.03774,4.598,1.008,-0.6726,0.4017,1.85,-0.3148] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.27,0.2861,-0.04419,12,1.432,-1.887,9.104,1.546,0.9067] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_40(time_step): #fit for 40mm/s tinitial = 0 tfinal = 5 tstep = time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [41.65,0.4353,0.2967,394.5,0.9561,3.474,386.8,0.9674,6.597] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [55.94,0.3319,0.269,76.83,0.9285,3.845,72.52,0.9913,6.798] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [54.53,0.401,0.4147,104.6,0.8511,3.842,88.3,0.9431,6.758] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_50(time_step): #fit for 50mm/s tinitial = 0 tfinal = 4 tstep = time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [76.13,0.77,-0.1489,184.6,1.185,2.624,145.9,1.248,5.722] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [77.78,0.6091,-0.1461,1003,1.261,2.232,986.9,1.266,5.373] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.02,0.4802,-0.006005,5.151,2.465,-2.068,2.91,2.919,0.1847] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_0(time_step): #fit for 50mm/s tinitial = 0 tfinal = 10 tstep = time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [0,0,0,0,0,0,0,0,0] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [0,0,0,0,0,0,0,0,0] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [0,0,0,0,0,0,0,0,0] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_10_amount(time_step): #fit for 10mm/s tinitial = 0 tfinal = 20 tstep = (tfinal-tinitial)/ time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [59.39,0.09915,1.046,49.89,0.1134,4.763,4.963,0.2814,6.505] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [407.5,0.007948,0.01161,17,0.2033,-0.2733,1.725,0.4184,6.076] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [65.4,0.08329,-0.0815,8.104,0.2372,6.337,0.7624,0.5186,4.748] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_20_amount(time_step): #fit for 20mm/s tinitial = 0 tfinal = 10 tstep = (tfinal-tinitial)/ time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [54.05,0.2079,0.8322,37.66,0.2473,4.563,3.95,0.6362,6.234] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [73.64,0.247,-0.175,357.2,0.5185,2.136,345,0.5222,5.283] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [58.86,0.2063,-0.05415,17.15,1.042,-2.215,15.12,1.081,0.7287] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_30_amount(time_step): #fit for 30mm/s tinitial = 0 tfinal = 200/30 tstep = (tfinal-tinitial)/ time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [88.94,0.4628,-0.1873,128.6,0.6458,2.73,78.07,0.7099,5.841] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [64.41,0.251,0.03774,4.598,1.008,-0.6726,0.4017,1.85,-0.3148] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.27,0.2861,-0.04419,12,1.432,-1.887,9.104,1.546,0.9067] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_40_amount(time_step): #fit for 40mm/s tinitial = 0 tfinal = 5 tstep = (tfinal-tinitial)/ time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [41.65,0.4353,0.2967,394.5,0.9561,3.474,386.8,0.9674,6.597] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [55.94,0.3319,0.269,76.83,0.9285,3.845,72.52,0.9913,6.798] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [54.53,0.401,0.4147,104.6,0.8511,3.842,88.3,0.9431,6.758] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_50_amount(time_step): #fit for 50mm/s tinitial = 0 tfinal = 4 tstep = (tfinal-tinitial)/ time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [76.13,0.77,-0.1489,184.6,1.185,2.624,145.9,1.248,5.722] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [77.78,0.6091,-0.1461,1003,1.261,2.232,986.9,1.266,5.373] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.02,0.4802,-0.006005,5.151,2.465,-2.068,2.91,2.919,0.1847] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def fit_0_amount(time_step): #fit for 50mm/s tinitial = 0 tfinal = 10 tstep = (tfinal-tinitial)/ time_step t = numpy.r_[tinitial:tfinal:tstep] qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [0,0,0,0,0,0,0,0,0] qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [0,0,0,0,0,0,0,0,0] qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [0,0,0,0,0,0,0,0,0] return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 def exp_fit(x,a1, b1, c1,a2,b2,c2,a3,b3,c3): from scipy import sin return a1*sin(b1*x+c1)+a2*sin(b2*x+c2)+a3*sin(b3*x+c3) def exp_fit2(x,a1, b1, c1,a2,b2,c2,a3,b3,c3,extra_time): from scipy import sin fit_1 = a1*sin(b1*x+c1)+a2*sin(b2*x+c2)+a3*sin(b3*x+c3) return
56.465753
175
0.6828
1,683
8,244
3.309566
0.128342
0.017235
0.022621
0.025853
0.981508
0.977199
0.977199
0.977199
0.977199
0.977199
0
0.279471
0.120209
8,244
146
176
56.465753
0.488488
0.04197
0
0.844828
0
0
0
0
0
0
0
0
0
1
0.12069
false
0
0.025862
0
0.267241
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
1
0
0
0
0
0
1
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
9
f880a8f7be9fc0f712a73644df4bb3a6f7d04ae0
16,489
py
Python
Limix_QTL/qtl_parse_args.py
Bonder-MJ/limix_qtl
71f18f4e39cdba0f0e6dc59713b83701599bc86f
[ "Apache-2.0" ]
7
2020-05-17T18:36:50.000Z
2021-12-01T11:24:24.000Z
Limix_QTL/qtl_parse_args.py
Bonder-MJ/limix_qtl
71f18f4e39cdba0f0e6dc59713b83701599bc86f
[ "Apache-2.0" ]
2
2021-04-27T19:15:17.000Z
2022-01-13T09:51:27.000Z
Limix_QTL/qtl_parse_args.py
Bonder-MJ/limix_qtl
71f18f4e39cdba0f0e6dc59713b83701599bc86f
[ "Apache-2.0" ]
6
2019-12-04T09:57:28.000Z
2022-03-14T02:20:10.000Z
import argparse def get_args(): parser = argparse.ArgumentParser(description='Run QTL analysis given genotype, phenotype, and annotation.') parser.add_argument('--bgen','-bg',required=False) parser.add_argument('--plink','-pg',required=False) parser.add_argument('--annotation_file','-af', required=True) parser.add_argument('--phenotype_file','-pf', required=True) parser.add_argument('--output_directory','-od', required=True) parser.add_argument('--window','-w', required=False, help= 'The size of the cis window to take SNPs from.' 'The window will extend between: ' ' (feature_start - (window)) ' ' and: ' ' (feature_end + (window)) ',default=250000) parser.add_argument('--genomic_range','-gr',required=False, help= 'A genomic range to do selecte features to be considered in the analysis.' 'Available options: all (default), a chromsome or chromosome:start-end.',default='all') parser.add_argument('--covariates_file','-cf',required=False,default=None) parser.add_argument('--randomeff_files','-rf',required=False,default=None, help = """The random effect files divided by a comma. The first one should be the kinship file and the second one should contain the read depth. You can also just input only one of them but the order is important""") parser.add_argument('--sample_mapping_file','-smf',required=False,default=None) parser.add_argument('--minor_allel_frequency','-maf',required=False,default=0.05) parser.add_argument('--hardy_weinberg_equilibrium','-hwe',required=False,default=0.0001) parser.add_argument('--call_rate','-cr',required=False,default=0.95) parser.add_argument('--block_size','-bs',required=False,default=1500) parser.add_argument('--number_of_permutations','-np',required=False,default=10) parser.add_argument('--variant_filter','-vf',required=False,default=None) parser.add_argument('--feature_variant_covariate','-fvc',required=False,default=None) parser.add_argument('--feature_variant_filter','-fvf',required=False,default=None) parser.add_argument('--feature_filter','-ff',required=False,default=None) parser.add_argument('--seed','-s',required=False) parser.add_argument('--extended_annotation_file','-eaf', help= 'Secondary annotation file, to add a multiple locations to one feature.' 'This can be used to either link multiple test regions to one feature or exclude multiple regions while testing a feature.', required=False) parser.add_argument('--relatedness_score','-rs',required=False,default=None) parser.add_argument('--write_permutations','-wp',action="store_true",required=False,default=False) parser.add_argument('--write_feature_top_permutations','-wftp',action='store_true',required=False,default=False) parser.add_argument('--minimum_test_samples','-mts', help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.",required=False,default=10) parser.add_argument("--gaussianize_method","-gm", help="Force normal distribution on phenotypes.", default=None) parser.add_argument("--cis","-c", action="store_true", help="Run cis analysis.", default=False) parser.add_argument("--trans","-t", action="store_true", help="Run trans analysis.", default=False) parser.add_argument("--no_chromosome_filter","-ncf", action="store_true", help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for." "When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False) parser.add_argument("--regress_covariates","-rc", action="store_true", help="Regress-out covariates, using a LMM, before running the QTL mapping.", default=False) parser.add_argument("--debugger","-d", action="store_true", help="Print the time needed for each step", default=False) args = parser.parse_args() return args def get_interaction_args(): parser = argparse.ArgumentParser(description='Run QTL analysis given genotype, phenotype, and annotation.') parser.add_argument('--bgen','-bg',required=False) parser.add_argument('--plink','-pg',required=False) parser.add_argument('--annotation_file','-af', required=True) parser.add_argument('--phenotype_file','-pf', required=True) parser.add_argument('--output_directory','-od', required=True) parser.add_argument('--interaction_term','-it', help= 'Term to use for the interaction analysis, values are extracted from the covariate matrix.' 'The interaction term is also taken along in the covariate matrix.',required=True,default=None) parser.add_argument('--window','-w', required=False, help= 'The size of the cis window to take SNPs from.' 'The window will extend between: ' ' (feature_start - (window)) ' ' and: ' ' (feature_end + (window)) ',default=250000) parser.add_argument('--genomic_range','-gr',required=False, help= 'A genomic range to do selecte features to be considered in the analysis.' 'Available options: all (default), a chromsome or chromosome:start-end.',default='all') parser.add_argument('--covariates_file','-cf',required=False,default=None) parser.add_argument('--kinship_file','-kf',required=False,default=None) parser.add_argument('--sample_mapping_file','-smf',required=False,default=None) parser.add_argument('--minor_allel_frequency','-maf',required=False,default=0.05) parser.add_argument('--hardy_weinberg_equilibrium','-hwe',required=False,default=0.0001) parser.add_argument('--call_rate','-cr',required=False,default=0.95) parser.add_argument('--block_size','-bs',required=False,default=1500) parser.add_argument('--number_of_permutations','-np',required=False,default=10) parser.add_argument('--variant_filter','-vf',required=False,default=None) parser.add_argument('--feature_variant_covariate','-fvc',required=False,default=None) parser.add_argument('--feature_variant_filter','-fvf',required=False,default=None) parser.add_argument('--feature_filter','-ff',required=False,default=None) parser.add_argument('--seed','-s',required=False) parser.add_argument('--extended_annotation_file','-eaf', help= 'Secondary annotation file, to add a multiple locations to one feature.' 'This can be used to either link multiple test regions to one feature or exclude multiple regions while testing a feature.', required=False) parser.add_argument('--regress_snp_interaction','-rsi', action="store_true",required=False,default=False) parser.add_argument("--regress_covariates","-rc", action="store_true", help="Regress-out covariates, using a LMM, before running the QTL mapping.", default=False) parser.add_argument('--relatedness_score','-rs',required=False,default=None) parser.add_argument('--write_permutations','-wp',action="store_true",required=False,default=False) parser.add_argument('--minimum_test_samples','-mts', help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.",required=False,default=10) parser.add_argument("--gaussianize_method","-gm", help="Force normal distribution on phenotypes.", default=None) parser.add_argument("--cis","-c", action="store_true", help="Run cis analysis.", default=False) parser.add_argument("--trans","-t", action="store_true", help="Run trans analysis.", default=False) parser.add_argument("--no_chromosome_filter","-ncf", action="store_true", help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for." "When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False) args = parser.parse_args() return args def get_struct_args(): parser = argparse.ArgumentParser(description='Run structLMM QTL analysis given genotype, phenotype, environments and annotation.') parser.add_argument('--bgen','-bg', required=False) parser.add_argument('--plink','-pg', required=False) parser.add_argument('--annotation_file','-af', required=True) parser.add_argument('--phenotype_file','-pf', required=True) parser.add_argument('--output_directory','-od', required=True) parser.add_argument('--environment_file','-ef', required=True) parser.add_argument('--window','-w', required=False, help= 'The size of the cis window to take SNPs from.' 'The window will extend between: ' ' (feature_start - (window)) ' ' and: ' ' (feature_end + (window)) ', default=250000) parser.add_argument('--genomic_range','-gr', required=False, help= 'A genomic range to do selecte features to be considered in the analysis.' 'Available options: all (default), a chromsome or chromosome:start-end.', default='all') parser.add_argument('--covariates_file','-cf', required=False, default=None) parser.add_argument('--kinship_file','-kf', required=False, default=None) parser.add_argument('--sample_mapping_file','-smf', required=False, default=None) parser.add_argument('--minor_allel_frequency','-maf', required=False, default=0.05) parser.add_argument('--hardy_weinberg_equilibrium','-hwe', required=False, default=0.0001) parser.add_argument('--call_rate','-cr', required=False, default=0.95) parser.add_argument('--block_size','-bs', required=False, default=1500) parser.add_argument('--number_of_permutations','-np', required=False, default=10) parser.add_argument('--variant_filter','-vf', required=False, default=None) parser.add_argument('--feature_variant_covariate','-fvc', required=False, default=None) parser.add_argument('--feature_variant_filter','-fvf', required=False, default=None) parser.add_argument('--feature_filter','-ff', required=False, default=None) parser.add_argument('--seed','-s', required=False) parser.add_argument('--extended_annotation_file','-eaf', help= 'Secondary annotation file, to add a multiple locations to one feature.' 'This can be used to either link multiple test regions to one feature or exclude multiple regions while testing a feature.', required=False) parser.add_argument('--relatedness_score','-rs', required=False, default=None) parser.add_argument('--write_permutations','-wp', action="store_true", required=False, default=False) parser.add_argument('--minimum_test_samples','-mts', help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.", required=False, default=10) parser.add_argument("--gaussianize_method","-gm", help="Force normal distribution on phenotypes.", default=None) parser.add_argument("--cis","-c", action="store_true", help="Run cis analysis.", default=False) parser.add_argument("--trans","-t", action="store_true", help="Run trans analysis.", default=False) parser.add_argument("--interaction_mode","-im", action="store_true", help="Run structLMM in interaction mode.", default=False) parser.add_argument("--association_mode","-am", action="store_true", help="Run structLMM in association mode.", default=False) parser.add_argument("--no_chromosome_filter","-ncf", action="store_true", help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for." "When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False) args = parser.parse_args() return args def get_grsQtl_args(): parser = argparse.ArgumentParser(description='Run GRS QT analysis given genotype, phenotype, and annotation.') parser.add_argument('--genetic_risk_scores','-grs',required=True) parser.add_argument('--annotation_file','-af', required=True) parser.add_argument('--phenotype_file','-pf', required=True) parser.add_argument('--output_directory','-od', required=True) parser.add_argument('--genomic_range','-gr',required=False, help= 'A genomic range to do selecte features to be considered in the analysis.' 'Available options: all (default), a chromsome or chromosome:start-end.',default='all') parser.add_argument('--covariates_file','-cf',required=False,default=None) parser.add_argument('--kinship_file','-kf',required=False,default=None) parser.add_argument('--sample_mapping_file','-smf',required=False,default=None) parser.add_argument('--call_rate','-cr',required=False,default=0.95) parser.add_argument('--block_size','-bs',required=False,default=1500) parser.add_argument('--number_of_permutations','-np',required=False,default=10) parser.add_argument('--variant_filter','-vf',required=False,default=None) parser.add_argument('--feature_variant_covariate','-fvc',required=False,default=None) parser.add_argument('--feature_variant_filter','-fvf',required=False,default=None) parser.add_argument('--feature_filter','-ff',required=False,default=None) parser.add_argument('--seed','-s',required=False) parser.add_argument('--relatedness_score','-rs',required=False,default=None) parser.add_argument('--write_permutations','-wp',action="store_true",required=False,default=False) parser.add_argument('--minimum_test_samples','-mts', help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.",required=False,default=10) parser.add_argument("--gaussianize_method","-gm", help="Force normal distribution on phenotypes.", default=None) parser.add_argument("--no_chromosome_filter","-ncf", action="store_true", help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for." "When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False) parser.add_argument("--regress_covariates","-rc", action="store_true", help="Regress-out covariates, using a LMM, before running the QTL mapping.", default=False) args = parser.parse_args() return args
72.960177
218
0.635757
1,943
16,489
5.24807
0.123006
0.1015
0.191723
0.070609
0.937825
0.931647
0.918996
0.912523
0.909679
0.903795
0
0.006808
0.233853
16,489
225
219
73.284444
0.800364
0
0
0.895455
0
0.054545
0.428104
0.057796
0
0
0
0
0
1
0.018182
false
0
0.009091
0
0.045455
0
0
0
0
null
0
1
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
f888b23b5dcb3da6f0c9ef8bb43251e9a125e7f0
97
py
Python
src/imitation/algorithms/__init__.py
ymetz/imitation
310e81d54e1c8a3a14bc53df61e982efba068ea0
[ "MIT" ]
null
null
null
src/imitation/algorithms/__init__.py
ymetz/imitation
310e81d54e1c8a3a14bc53df61e982efba068ea0
[ "MIT" ]
null
null
null
src/imitation/algorithms/__init__.py
ymetz/imitation
310e81d54e1c8a3a14bc53df61e982efba068ea0
[ "MIT" ]
null
null
null
from imitation.algorithms.bc import BC from imitation.algorithms.adversarial import AIRL, GAIL
32.333333
56
0.835052
13
97
6.230769
0.615385
0.320988
0.567901
0
0
0
0
0
0
0
0
0
0.113402
97
2
57
48.5
0.94186
0
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0
1
0
1
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
3e2769fb19f5ead44061df14e3158d30d67744b1
26,514
py
Python
MILES/pylib/lib_corr.py
kxxdhdn/MISSILE
89dea38aa9247f20c444ccd0b832c674be275fbf
[ "BSD-3-Clause" ]
null
null
null
MILES/pylib/lib_corr.py
kxxdhdn/MISSILE
89dea38aa9247f20c444ccd0b832c674be275fbf
[ "BSD-3-Clause" ]
null
null
null
MILES/pylib/lib_corr.py
kxxdhdn/MISSILE
89dea38aa9247f20c444ccd0b832c674be275fbf
[ "BSD-3-Clause" ]
null
null
null
#!/usr/bin/env python # -*- coding: utf-8 -*- """ This is the visualization of correlations """ import os, pathlib import numpy as np import matplotlib.colors as mcolors ## rapyuta from rapyuta.arrays import closest from rapyuta.inout import read_hdf5 ## local from auxil import croot ## Path ##------ path_out = croot+'../out/' h5_obs = path_out+'observation_MIR' h5_model = path_out+'input_model' ## Read fit ##---------- labB = read_hdf5(h5_model, 'label band') labL = read_hdf5(h5_model, 'label line') ## Colors and markers ##-------------------- spec_name = read_hdf5(h5_obs, 'spectrum labels') clist = [] mlist = [] for y in range(spec_name.shape[0]): if spec_name[y,0][0]=='A': clist.append( ((y)/14+.5, 0, 0) ) mlist.append('*') elif spec_name[y,0][0]=='B': clist.append( (.8, (y-7+1)/14+.2, .2) ) mlist.append('*') elif spec_name[y,0][0]=='C': clist.append( ((y-14+1)/14+.5, (y-14+1)/14+.5, 0) ) mlist.append('*') elif spec_name[y,0][0]=='D': clist.append( (0, (y-21)/8+.5, 0) ) mlist.append('d') # elif spec_name[y,0][0]=='E': # clist.append('lime') # mlist.append('d') elif spec_name[y,0][0]=='F': clist.append( (.9, (y-25+1)/6+.5, .8) ) mlist.append('v') elif spec_name[y,0][0]=='G': clist.append( ((y-27+1)/3+.3, 0, (y-27+1)/3+.3) ) mlist.append('v') elif spec_name[y,0][0]=='H': clist.append( (0, (y-29+1)/3+.3, (y-29+1)/3+.3) ) mlist.append('v') elif spec_name[y,0][0]=='I': clist.append( (0, 0, (y-31+1)/3+.3) ) mlist.append('v') elif spec_name[y,0][0]=='J': clist.append( (0, 0, (y-33+1)/3+.3) ) mlist.append('^') elif spec_name[y,0][0]=='K': clist.append( ((y-35+1)/3+.3, 0, (y-35+1)/3+.3) ) mlist.append('^') elif spec_name[y,0][0]=='L': clist.append( (.9, (y-37+1)/6+.5, .8) ) mlist.append('^') elif spec_name[y,0][0]=='M': clist.append( (0, (y-39+1)/3+.3, (y-39+1)/3+.3) ) mlist.append('^') # elif spec_name[y,0][0]=='N': # clist.append('b') # mlist.append('s') ## Ratios ##-------- mode = ['chi2', 'bb', 'hb'] for m in mode: filout = path_out+'fit_'+m h5_out = pathlib.Path(filout+'.h5') if h5_out.exists(): labels = [] fnames = [] if m=='chi2': parname = read_hdf5(filout, 'Parameter label') par = read_hdf5(filout, 'Best fitted parameter value') parerr = read_hdf5(filout, 'Best fitted parameter error') par[par==0] = np.nan values_chi2 = [] errors_chi2 = [] limits_chi2 = [] else: filmcmc = path_out+'parlog_fit_'+m parname = read_hdf5(filmcmc, 'Parameter label') parmcmc = read_hdf5(filmcmc, 'Parameter values') t_end = read_hdf5(filmcmc, 'Last index')[0] t_burnin = int(t_end/10) - 1 if m=='bb': values_bb = [] errors_bb = [] limits_bb = [] else: values_hb = [] errors_hb = [] limits_hb = [] ## 11.3 complex i1 = np.where(labB=='Main 11.2')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] i2 = np.where(labB=='Plateau 11.3')[0][0]+1 ipar2 = np.where(parname=='lnRband'+str(i2))[0][0] if m=='chi2': v0 = 1 + np.exp(par[ipar2,:,:]) e0 = (np.exp(par[ipar2,:,:]) * parerr[ipar2,:,:])**2 else: v0 = 1 + np.exp(parmcmc[t_burnin:t_end,ipar2,:,:]) ##---------------------------------------------- ## I11.3/I11.2 if m=='chi2': v = v0.flatten() e = np.sqrt( e0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I11.3/I11.2') fnames.append('I11.3_ov_I11.2') ## I3.3/I11.3 i1 = np.where(labB=='Main 3.3')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] if m=='chi2': v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten() e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2 + np.exp(par[ipar1,:,:])**2 * e0 ) / v0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I3.3/I11.3') fnames.append('I3.3_ov_I11.3') ## I6.2/I11.3 i1 = np.where(labB=='Main 6.2 (1)')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] i2 = np.where(labB=='Main 6.2 (2)')[0][0]+1 ipar2 = np.where(parname=='lnRband'+str(i2))[0][0] if m=='chi2': v = ( (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])) / v0 ).flatten() e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2 + (np.exp(par[ipar2,:,:])*parerr[ipar2,:,:])**2 + (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:]))**2 * e0 ) / v0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] +parmcmc[t_burnin:t_end,ipar2,:,:]) / v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I6.2/I11.3') fnames.append('I6.2_ov_I11.3') ## I7.7/I11.3 i1 = np.where(labB=='Plateau 7.7')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] i2 = np.where(labB=='Main 7.7 (1)')[0][0]+1 ipar2 = np.where(parname=='lnRband'+str(i2))[0][0] i3 = np.where(labB=='Main 7.7 (2)')[0][0]+1 ipar3 = np.where(parname=='lnRband'+str(i3))[0][0] if m=='chi2': v = ( (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])+np.exp(par[ipar3,:,:])) / v0 ).flatten() e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2 + (np.exp(par[ipar2,:,:])*parerr[ipar2,:,:])**2 + (np.exp(par[ipar3,:,:])*parerr[ipar3,:,:])**2 + (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])+np.exp(par[ipar3,:,:]))**2 * e0 ) / v0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] +parmcmc[t_burnin:t_end,ipar2,:,:] +parmcmc[t_burnin:t_end,ipar3,:,:]) / v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I7.7/I11.3') fnames.append('I7.7_ov_I11.3') ## I8.6/I11.3 i1 = np.where(labB=='Main 8.6')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] if m=='chi2': v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten() e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2 + np.exp(par[ipar1,:,:])**2 * e0 ) / v0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I8.6/I11.3') fnames.append('I8.6_ov_I11.3') ## I12.7/I11.3 i1 = np.where(labB=='Main 12.7 (1)')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] i2 = np.where(labB=='Main 12.7 (2)')[0][0]+1 ipar2 = np.where(parname=='lnRband'+str(i2))[0][0] if m=='chi2': v = ( (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])) / v0 ).flatten() e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2 + (np.exp(par[ipar2,:,:])*parerr[ipar2,:,:])**2 + (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:]))**2 * e0 ) / v0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] +parmcmc[t_burnin:t_end,ipar2,:,:]) / v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I12.7/I11.3') fnames.append('I12.7_ov_I11.3') ## I17.0/I11.3 i1 = np.where(labB=='Plateau 17.0')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] if m=='chi2': v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten() e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2 + np.exp(par[ipar1,:,:])**2 * e0 ) / v0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I17.0/I11.3') fnames.append('I17.0_ov_I11.3') ## I3.4/I3.3 i1 = np.where(labB=='Main 3.4')[0][0]+1 ipar1 = np.where(parname=='lnRband'+str(i1))[0][0] i2 = np.where(labB=='Main 3.3')[0][0]+1 ipar2 = np.where(parname=='lnRband'+str(i2))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('I3.4/I3.3') fnames.append('I3.4_ov_I3.3') ## [NeIII]/[NeII] i1 = np.where(labL=='NeIII1')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='NeII ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[NeIII]/[NeII]') fnames.append('[NeIII]_ov_[NeII]') ## [SIV]/[SIII] i1 = np.where(labL=='SIV ')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='SIII1 ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[SIV]/[SIII]') fnames.append('[SIV]_ov_[SIII]') ## [SIV]/[NeII] i1 = np.where(labL=='SIV ')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='NeII ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[SIV]/[NeII]') fnames.append('[SIV]_ov_[NeII]') ## [NeIII]/[SIII] i1 = np.where(labL=='NeIII1')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='SIII1 ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[NeIII]/[SIII]') fnames.append('[NeIII]_ov_[SIII]') ## [NeIII]/[NeII](r) i1 = np.where(labL=='NeIII1')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='NeII ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] i3 = np.where(labB=='Main 12.7 (1)')[0][0]+1 ipar3 = np.where(parname=='lnRband'+str(i3))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:]+par[ipar3,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2+parerr[ipar3,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:] +parmcmc[t_burnin:t_end,ipar3,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[NeIII]/[NeII](r)') fnames.append('[NeIII]_ov_[NeII](r)') ## [ArIII]/[ArII] i1 = np.where(labL=='ArIII1')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='ArII ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[ArIII]/[ArII]') fnames.append('[ArIII]_ov_[ArII]') ## [SIV]/[NeII](r) i1 = np.where(labL=='SIV ')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='NeII ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] i3 = np.where(labB=='Main 12.7 (1)')[0][0]+1 ipar3 = np.where(parname=='lnRband'+str(i3))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]-par[ipar2,:,:]+par[ipar3,:,:] ).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2+parerr[ipar3,:,:]**2 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:] -parmcmc[t_burnin:t_end,ipar2,:,:] +parmcmc[t_burnin:t_end,ipar3,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[SIV]/[NeII](r)') fnames.append('[SIV]_ov_[NeII](r)') ## [H2S1-7]/(I7.7+I8.6) i1 = np.where(labL=='H2S1 ')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] i2 = np.where(labL=='H2S2 ')[0][0]+1 ipar2 = np.where(parname=='lnRline'+str(i2))[0][0] i3 = np.where(labL=='H2S3 ')[0][0]+1 ipar3 = np.where(parname=='lnRline'+str(i3))[0][0] i4 = np.where(labL=='H2S5 ')[0][0]+1 ipar4 = np.where(parname=='lnRline'+str(i4))[0][0] i5 = np.where(labL=='H2S7 ')[0][0]+1 ipar5 = np.where(parname=='lnRline'+str(i5))[0][0] i6 = np.where(labB=='Plateau 7.7')[0][0]+1 ipar6 = np.where(parname=='lnRband'+str(i6))[0][0] i7 = np.where(labB=='Main 7.7 (1)')[0][0]+1 ipar7 = np.where(parname=='lnRband'+str(i7))[0][0] i8 = np.where(labB=='Main 7.7 (2)')[0][0]+1 ipar8 = np.where(parname=='lnRband'+str(i8))[0][0] i9 = np.where(labB=='Main 8.6')[0][0]+1 ipar9 = np.where(parname=='lnRband'+str(i9))[0][0] if m=='chi2': v = np.exp( par[ipar1,:,:]+par[ipar2,:,:]+par[ipar3,:,:] +par[ipar4,:,:]+par[ipar5,:,:]-par[ipar6,:,:] -par[ipar7,:,:]-par[ipar8,:,:]-par[ipar9,:,:]).flatten() e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2+parerr[ipar3,:,:]**2 +parerr[ipar4,:,:]**2+parerr[ipar5,:,:]**2+parerr[ipar6,:,:]**2 +parerr[ipar7,:,:]**2+parerr[ipar8,:,:]**2+parerr[ipar9,:,:]**2).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp( parmcmc[t_burnin:t_end,ipar1,:,:] +parmcmc[t_burnin:t_end,ipar2,:,:] +parmcmc[t_burnin:t_end,ipar3,:,:] +parmcmc[t_burnin:t_end,ipar4,:,:] +parmcmc[t_burnin:t_end,ipar5,:,:] -parmcmc[t_burnin:t_end,ipar6,:,:] -parmcmc[t_burnin:t_end,ipar7,:,:] -parmcmc[t_burnin:t_end,ipar8,:,:] -parmcmc[t_burnin:t_end,ipar9,:,:]) v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[H2S1-7]/(I7.7+I8.6)') fnames.append('[H2S1-7]_ov_I7.7+I8.6') ## [H2S1]/I11.3 i1 = np.where(labL=='H2S1 ')[0][0]+1 ipar1 = np.where(parname=='lnRline'+str(i1))[0][0] if m=='chi2': v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten() e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2 + np.exp(par[ipar1,:,:])**2 * e0 ) / v0 ).flatten() values_chi2.append(v) errors_chi2.append(e) limits_chi2.append((1e-2,1e1)) else: vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0 v = np.median( vf, axis=0 ).flatten() e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten() e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v e = [e1,e2] if m=='bb': values_bb.append(v) errors_bb.append(e) limits_bb.append((1e-2,1e1)) else: values_hb.append(v) errors_hb.append(e) limits_hb.append((1e-2,1e1)) labels.append('[H2S1]/I11.3') fnames.append('[H2S1]_ov_I11.3') print(len(values_chi2)) print(len(values_hb))
39.870677
109
0.456287
3,601
26,514
3.270203
0.053041
0.016644
0.056301
0.05197
0.84927
0.799932
0.790251
0.776664
0.772249
0.752208
0
0.080114
0.339028
26,514
664
110
39.930723
0.59184
0.023346
0
0.735043
0
0
0.055461
0.000813
0
0
0
0
0
1
0
false
0
0.010256
0
0.010256
0.003419
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
e43e6b42625a958e2eac8d21709ecfee9c9ab0ac
2,452
py
Python
tests/test_dumptool.py
loftwah/jsoncsv
eec6a1e38d3d7430268c1a7962b200ffcb2b15ae
[ "Apache-2.0" ]
74
2016-07-28T01:47:22.000Z
2022-03-09T02:49:37.000Z
tests/test_dumptool.py
loftwah/jsoncsv
eec6a1e38d3d7430268c1a7962b200ffcb2b15ae
[ "Apache-2.0" ]
31
2017-07-11T09:24:48.000Z
2021-07-30T03:59:54.000Z
tests/test_dumptool.py
loftwah/jsoncsv
eec6a1e38d3d7430268c1a7962b200ffcb2b15ae
[ "Apache-2.0" ]
20
2016-10-30T10:58:38.000Z
2022-01-11T02:11:00.000Z
# coding=utf-8 # author@alingse # 2018.03.29 import io import unittest from jsoncsv.dumptool import DumpCSV from jsoncsv.dumptool import DumpXLS from jsoncsv.dumptool import dump_excel class TestDumpTool(unittest.TestCase): # FIXME (使用虚拟文件) def test_dumpexcel_csv(self): fin = io.open('./fixture/files/expand.1.json', 'r', encoding='utf-8') fout = io.open('./fixture/files/tmp.output.1.csv', 'wb') dump_excel(fin, fout, DumpCSV) fin.close() fout.close() output = io.open('./fixture/files/output.1.csv', 'r', encoding='utf-8') fout = io.open('./fixture/files/tmp.output.1.csv', 'r', encoding='utf-8') self.assertEqual(output.read(), fout.read()) output.close() fout.close() def test_dumpexcel_csv_with_sort(self): fin = io.open('./fixture/files/expand.1.json', 'r', encoding='utf-8') fout = io.open('./fixture/files/tmp.output.1.sort.csv', 'wb') dump_excel(fin, fout, DumpCSV, sort_type=True) fin.close() fout.close() output = io.open('./fixture/files/output.1.sort.csv', 'r', encoding='utf-8') fout = io.open('./fixture/files/tmp.output.1.sort.csv', 'r', encoding='utf-8') self.assertEqual(output.read(), fout.read()) output.close() fout.close() def test_dumpcexcel_xls(self): fin = io.open('./fixture/files/expand.1.json', 'r', encoding='utf-8') fout = io.open('./fixture/files/tmp.output.1.xls', 'wb') dump_excel(fin, fout, DumpXLS) fin.close() fout.close() def test_dump_csv_with_non_ascii(self): fin = io.open('./fixture/files/expand.2.json', 'r', encoding='utf-8') fout = io.open('./fixture/files/tmp.output.2.csv', 'wb') dump_excel(fin, fout, DumpCSV) fin.close() fout.close() def test_dump_xls_with_non_ascii(self): fin = io.open('./fixture/files/expand.2.json', 'r', encoding='utf-8') fout = io.open('./fixture/files/tmp.output.2.xls', 'wb') dump_excel(fin, fout, DumpXLS) fin.close() fout.close() def test_dump_xls_with_dict(self): fin = io.StringIO(u'{"a": {}}\n') fout = io.BytesIO() dump_excel(fin, fout, DumpXLS) fin.close() fout.close() def test_dump_excel_with_error(self): with self.assertRaises(ValueError): dump_excel(None, None, None)
28.511628
86
0.600734
339
2,452
4.241888
0.185841
0.058414
0.126565
0.175243
0.744089
0.744089
0.744089
0.726704
0.723922
0.709319
0
0.016869
0.226346
2,452
85
87
28.847059
0.74117
0.021615
0
0.509091
0
0
0.215121
0.183793
0
0
0
0.011765
0.054545
1
0.127273
false
0
0.090909
0
0.236364
0
0
0
0
null
0
0
1
0
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
0
0
0
0
0
null
0
0
1
0
0
0
0
0
0
0
0
0
0
7
e44ec29c928ee7ae826383e6064721f53681b75a
27,549
py
Python
sdk/python/pulumi_rancher2/role_tempalte.py
pulumi/pulumi-rancher2
7a98af8cf598b711084a7f46c0fe71b43ed7a8ac
[ "ECL-2.0", "Apache-2.0" ]
3
2020-03-23T15:59:11.000Z
2021-01-29T00:37:32.000Z
sdk/python/pulumi_rancher2/role_tempalte.py
pulumi/pulumi-rancher2
7a98af8cf598b711084a7f46c0fe71b43ed7a8ac
[ "ECL-2.0", "Apache-2.0" ]
76
2020-01-16T20:00:25.000Z
2022-03-31T20:30:08.000Z
sdk/python/pulumi_rancher2/role_tempalte.py
pulumi/pulumi-rancher2
7a98af8cf598b711084a7f46c0fe71b43ed7a8ac
[ "ECL-2.0", "Apache-2.0" ]
2
2020-03-27T17:39:59.000Z
2020-11-24T23:09:24.000Z
# coding=utf-8 # *** WARNING: this file was generated by the Pulumi Terraform Bridge (tfgen) Tool. *** # *** Do not edit by hand unless you're certain you know what you are doing! *** import warnings import pulumi import pulumi.runtime from typing import Any, Mapping, Optional, Sequence, Union, overload from . import _utilities from . import outputs from ._inputs import * __all__ = ['RoleTempalteArgs', 'RoleTempalte'] @pulumi.input_type class RoleTempalteArgs: def __init__(__self__, *, administrative: Optional[pulumi.Input[bool]] = None, annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None, context: Optional[pulumi.Input[str]] = None, default_role: Optional[pulumi.Input[bool]] = None, description: Optional[pulumi.Input[str]] = None, external: Optional[pulumi.Input[bool]] = None, hidden: Optional[pulumi.Input[bool]] = None, labels: Optional[pulumi.Input[Mapping[str, Any]]] = None, locked: Optional[pulumi.Input[bool]] = None, name: Optional[pulumi.Input[str]] = None, role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, rules: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]] = None): """ The set of arguments for constructing a RoleTempalte resource. :param pulumi.Input[bool] administrative: Administrative role template :param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource :param pulumi.Input[str] context: Context role template :param pulumi.Input[bool] default_role: Default role template for new created cluster or project :param pulumi.Input[str] description: Role template policy description :param pulumi.Input[bool] external: External role template :param pulumi.Input[bool] hidden: Hidden role template :param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource :param pulumi.Input[bool] locked: Locked role template :param pulumi.Input[str] name: Role template policy name :param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs :param pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]] rules: Role template policy rules """ if administrative is not None: pulumi.set(__self__, "administrative", administrative) if annotations is not None: pulumi.set(__self__, "annotations", annotations) if context is not None: pulumi.set(__self__, "context", context) if default_role is not None: pulumi.set(__self__, "default_role", default_role) if description is not None: pulumi.set(__self__, "description", description) if external is not None: pulumi.set(__self__, "external", external) if hidden is not None: pulumi.set(__self__, "hidden", hidden) if labels is not None: pulumi.set(__self__, "labels", labels) if locked is not None: pulumi.set(__self__, "locked", locked) if name is not None: pulumi.set(__self__, "name", name) if role_template_ids is not None: pulumi.set(__self__, "role_template_ids", role_template_ids) if rules is not None: pulumi.set(__self__, "rules", rules) @property @pulumi.getter def administrative(self) -> Optional[pulumi.Input[bool]]: """ Administrative role template """ return pulumi.get(self, "administrative") @administrative.setter def administrative(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "administrative", value) @property @pulumi.getter def annotations(self) -> Optional[pulumi.Input[Mapping[str, Any]]]: """ Annotations of the resource """ return pulumi.get(self, "annotations") @annotations.setter def annotations(self, value: Optional[pulumi.Input[Mapping[str, Any]]]): pulumi.set(self, "annotations", value) @property @pulumi.getter def context(self) -> Optional[pulumi.Input[str]]: """ Context role template """ return pulumi.get(self, "context") @context.setter def context(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "context", value) @property @pulumi.getter(name="defaultRole") def default_role(self) -> Optional[pulumi.Input[bool]]: """ Default role template for new created cluster or project """ return pulumi.get(self, "default_role") @default_role.setter def default_role(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "default_role", value) @property @pulumi.getter def description(self) -> Optional[pulumi.Input[str]]: """ Role template policy description """ return pulumi.get(self, "description") @description.setter def description(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "description", value) @property @pulumi.getter def external(self) -> Optional[pulumi.Input[bool]]: """ External role template """ return pulumi.get(self, "external") @external.setter def external(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "external", value) @property @pulumi.getter def hidden(self) -> Optional[pulumi.Input[bool]]: """ Hidden role template """ return pulumi.get(self, "hidden") @hidden.setter def hidden(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "hidden", value) @property @pulumi.getter def labels(self) -> Optional[pulumi.Input[Mapping[str, Any]]]: """ Labels of the resource """ return pulumi.get(self, "labels") @labels.setter def labels(self, value: Optional[pulumi.Input[Mapping[str, Any]]]): pulumi.set(self, "labels", value) @property @pulumi.getter def locked(self) -> Optional[pulumi.Input[bool]]: """ Locked role template """ return pulumi.get(self, "locked") @locked.setter def locked(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "locked", value) @property @pulumi.getter def name(self) -> Optional[pulumi.Input[str]]: """ Role template policy name """ return pulumi.get(self, "name") @name.setter def name(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "name", value) @property @pulumi.getter(name="roleTemplateIds") def role_template_ids(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]: """ Inherit role template IDs """ return pulumi.get(self, "role_template_ids") @role_template_ids.setter def role_template_ids(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]): pulumi.set(self, "role_template_ids", value) @property @pulumi.getter def rules(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]: """ Role template policy rules """ return pulumi.get(self, "rules") @rules.setter def rules(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]): pulumi.set(self, "rules", value) @pulumi.input_type class _RoleTempalteState: def __init__(__self__, *, administrative: Optional[pulumi.Input[bool]] = None, annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None, builtin: Optional[pulumi.Input[bool]] = None, context: Optional[pulumi.Input[str]] = None, default_role: Optional[pulumi.Input[bool]] = None, description: Optional[pulumi.Input[str]] = None, external: Optional[pulumi.Input[bool]] = None, hidden: Optional[pulumi.Input[bool]] = None, labels: Optional[pulumi.Input[Mapping[str, Any]]] = None, locked: Optional[pulumi.Input[bool]] = None, name: Optional[pulumi.Input[str]] = None, role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, rules: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]] = None): """ Input properties used for looking up and filtering RoleTempalte resources. :param pulumi.Input[bool] administrative: Administrative role template :param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource :param pulumi.Input[bool] builtin: Builtin role template :param pulumi.Input[str] context: Context role template :param pulumi.Input[bool] default_role: Default role template for new created cluster or project :param pulumi.Input[str] description: Role template policy description :param pulumi.Input[bool] external: External role template :param pulumi.Input[bool] hidden: Hidden role template :param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource :param pulumi.Input[bool] locked: Locked role template :param pulumi.Input[str] name: Role template policy name :param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs :param pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]] rules: Role template policy rules """ if administrative is not None: pulumi.set(__self__, "administrative", administrative) if annotations is not None: pulumi.set(__self__, "annotations", annotations) if builtin is not None: pulumi.set(__self__, "builtin", builtin) if context is not None: pulumi.set(__self__, "context", context) if default_role is not None: pulumi.set(__self__, "default_role", default_role) if description is not None: pulumi.set(__self__, "description", description) if external is not None: pulumi.set(__self__, "external", external) if hidden is not None: pulumi.set(__self__, "hidden", hidden) if labels is not None: pulumi.set(__self__, "labels", labels) if locked is not None: pulumi.set(__self__, "locked", locked) if name is not None: pulumi.set(__self__, "name", name) if role_template_ids is not None: pulumi.set(__self__, "role_template_ids", role_template_ids) if rules is not None: pulumi.set(__self__, "rules", rules) @property @pulumi.getter def administrative(self) -> Optional[pulumi.Input[bool]]: """ Administrative role template """ return pulumi.get(self, "administrative") @administrative.setter def administrative(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "administrative", value) @property @pulumi.getter def annotations(self) -> Optional[pulumi.Input[Mapping[str, Any]]]: """ Annotations of the resource """ return pulumi.get(self, "annotations") @annotations.setter def annotations(self, value: Optional[pulumi.Input[Mapping[str, Any]]]): pulumi.set(self, "annotations", value) @property @pulumi.getter def builtin(self) -> Optional[pulumi.Input[bool]]: """ Builtin role template """ return pulumi.get(self, "builtin") @builtin.setter def builtin(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "builtin", value) @property @pulumi.getter def context(self) -> Optional[pulumi.Input[str]]: """ Context role template """ return pulumi.get(self, "context") @context.setter def context(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "context", value) @property @pulumi.getter(name="defaultRole") def default_role(self) -> Optional[pulumi.Input[bool]]: """ Default role template for new created cluster or project """ return pulumi.get(self, "default_role") @default_role.setter def default_role(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "default_role", value) @property @pulumi.getter def description(self) -> Optional[pulumi.Input[str]]: """ Role template policy description """ return pulumi.get(self, "description") @description.setter def description(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "description", value) @property @pulumi.getter def external(self) -> Optional[pulumi.Input[bool]]: """ External role template """ return pulumi.get(self, "external") @external.setter def external(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "external", value) @property @pulumi.getter def hidden(self) -> Optional[pulumi.Input[bool]]: """ Hidden role template """ return pulumi.get(self, "hidden") @hidden.setter def hidden(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "hidden", value) @property @pulumi.getter def labels(self) -> Optional[pulumi.Input[Mapping[str, Any]]]: """ Labels of the resource """ return pulumi.get(self, "labels") @labels.setter def labels(self, value: Optional[pulumi.Input[Mapping[str, Any]]]): pulumi.set(self, "labels", value) @property @pulumi.getter def locked(self) -> Optional[pulumi.Input[bool]]: """ Locked role template """ return pulumi.get(self, "locked") @locked.setter def locked(self, value: Optional[pulumi.Input[bool]]): pulumi.set(self, "locked", value) @property @pulumi.getter def name(self) -> Optional[pulumi.Input[str]]: """ Role template policy name """ return pulumi.get(self, "name") @name.setter def name(self, value: Optional[pulumi.Input[str]]): pulumi.set(self, "name", value) @property @pulumi.getter(name="roleTemplateIds") def role_template_ids(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]: """ Inherit role template IDs """ return pulumi.get(self, "role_template_ids") @role_template_ids.setter def role_template_ids(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]): pulumi.set(self, "role_template_ids", value) @property @pulumi.getter def rules(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]: """ Role template policy rules """ return pulumi.get(self, "rules") @rules.setter def rules(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]): pulumi.set(self, "rules", value) warnings.warn("""rancher2.RoleTempalte has been deprecated in favor of rancher2.RoleTemplate""", DeprecationWarning) class RoleTempalte(pulumi.CustomResource): warnings.warn("""rancher2.RoleTempalte has been deprecated in favor of rancher2.RoleTemplate""", DeprecationWarning) @overload def __init__(__self__, resource_name: str, opts: Optional[pulumi.ResourceOptions] = None, administrative: Optional[pulumi.Input[bool]] = None, annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None, context: Optional[pulumi.Input[str]] = None, default_role: Optional[pulumi.Input[bool]] = None, description: Optional[pulumi.Input[str]] = None, external: Optional[pulumi.Input[bool]] = None, hidden: Optional[pulumi.Input[bool]] = None, labels: Optional[pulumi.Input[Mapping[str, Any]]] = None, locked: Optional[pulumi.Input[bool]] = None, name: Optional[pulumi.Input[str]] = None, role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, rules: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]]] = None, __props__=None): """ Create a RoleTempalte resource with the given unique name, props, and options. :param str resource_name: The name of the resource. :param pulumi.ResourceOptions opts: Options for the resource. :param pulumi.Input[bool] administrative: Administrative role template :param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource :param pulumi.Input[str] context: Context role template :param pulumi.Input[bool] default_role: Default role template for new created cluster or project :param pulumi.Input[str] description: Role template policy description :param pulumi.Input[bool] external: External role template :param pulumi.Input[bool] hidden: Hidden role template :param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource :param pulumi.Input[bool] locked: Locked role template :param pulumi.Input[str] name: Role template policy name :param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]] rules: Role template policy rules """ ... @overload def __init__(__self__, resource_name: str, args: Optional[RoleTempalteArgs] = None, opts: Optional[pulumi.ResourceOptions] = None): """ Create a RoleTempalte resource with the given unique name, props, and options. :param str resource_name: The name of the resource. :param RoleTempalteArgs args: The arguments to use to populate this resource's properties. :param pulumi.ResourceOptions opts: Options for the resource. """ ... def __init__(__self__, resource_name: str, *args, **kwargs): resource_args, opts = _utilities.get_resource_args_opts(RoleTempalteArgs, pulumi.ResourceOptions, *args, **kwargs) if resource_args is not None: __self__._internal_init(resource_name, opts, **resource_args.__dict__) else: __self__._internal_init(resource_name, *args, **kwargs) def _internal_init(__self__, resource_name: str, opts: Optional[pulumi.ResourceOptions] = None, administrative: Optional[pulumi.Input[bool]] = None, annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None, context: Optional[pulumi.Input[str]] = None, default_role: Optional[pulumi.Input[bool]] = None, description: Optional[pulumi.Input[str]] = None, external: Optional[pulumi.Input[bool]] = None, hidden: Optional[pulumi.Input[bool]] = None, labels: Optional[pulumi.Input[Mapping[str, Any]]] = None, locked: Optional[pulumi.Input[bool]] = None, name: Optional[pulumi.Input[str]] = None, role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, rules: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]]] = None, __props__=None): pulumi.log.warn("""RoleTempalte is deprecated: rancher2.RoleTempalte has been deprecated in favor of rancher2.RoleTemplate""") if opts is None: opts = pulumi.ResourceOptions() if not isinstance(opts, pulumi.ResourceOptions): raise TypeError('Expected resource options to be a ResourceOptions instance') if opts.version is None: opts.version = _utilities.get_version() if opts.id is None: if __props__ is not None: raise TypeError('__props__ is only valid when passed in combination with a valid opts.id to get an existing resource') __props__ = RoleTempalteArgs.__new__(RoleTempalteArgs) __props__.__dict__["administrative"] = administrative __props__.__dict__["annotations"] = annotations __props__.__dict__["context"] = context __props__.__dict__["default_role"] = default_role __props__.__dict__["description"] = description __props__.__dict__["external"] = external __props__.__dict__["hidden"] = hidden __props__.__dict__["labels"] = labels __props__.__dict__["locked"] = locked __props__.__dict__["name"] = name __props__.__dict__["role_template_ids"] = role_template_ids __props__.__dict__["rules"] = rules __props__.__dict__["builtin"] = None super(RoleTempalte, __self__).__init__( 'rancher2:index/roleTempalte:RoleTempalte', resource_name, __props__, opts) @staticmethod def get(resource_name: str, id: pulumi.Input[str], opts: Optional[pulumi.ResourceOptions] = None, administrative: Optional[pulumi.Input[bool]] = None, annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None, builtin: Optional[pulumi.Input[bool]] = None, context: Optional[pulumi.Input[str]] = None, default_role: Optional[pulumi.Input[bool]] = None, description: Optional[pulumi.Input[str]] = None, external: Optional[pulumi.Input[bool]] = None, hidden: Optional[pulumi.Input[bool]] = None, labels: Optional[pulumi.Input[Mapping[str, Any]]] = None, locked: Optional[pulumi.Input[bool]] = None, name: Optional[pulumi.Input[str]] = None, role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None, rules: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]]] = None) -> 'RoleTempalte': """ Get an existing RoleTempalte resource's state with the given name, id, and optional extra properties used to qualify the lookup. :param str resource_name: The unique name of the resulting resource. :param pulumi.Input[str] id: The unique provider ID of the resource to lookup. :param pulumi.ResourceOptions opts: Options for the resource. :param pulumi.Input[bool] administrative: Administrative role template :param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource :param pulumi.Input[bool] builtin: Builtin role template :param pulumi.Input[str] context: Context role template :param pulumi.Input[bool] default_role: Default role template for new created cluster or project :param pulumi.Input[str] description: Role template policy description :param pulumi.Input[bool] external: External role template :param pulumi.Input[bool] hidden: Hidden role template :param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource :param pulumi.Input[bool] locked: Locked role template :param pulumi.Input[str] name: Role template policy name :param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs :param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]] rules: Role template policy rules """ opts = pulumi.ResourceOptions.merge(opts, pulumi.ResourceOptions(id=id)) __props__ = _RoleTempalteState.__new__(_RoleTempalteState) __props__.__dict__["administrative"] = administrative __props__.__dict__["annotations"] = annotations __props__.__dict__["builtin"] = builtin __props__.__dict__["context"] = context __props__.__dict__["default_role"] = default_role __props__.__dict__["description"] = description __props__.__dict__["external"] = external __props__.__dict__["hidden"] = hidden __props__.__dict__["labels"] = labels __props__.__dict__["locked"] = locked __props__.__dict__["name"] = name __props__.__dict__["role_template_ids"] = role_template_ids __props__.__dict__["rules"] = rules return RoleTempalte(resource_name, opts=opts, __props__=__props__) @property @pulumi.getter def administrative(self) -> pulumi.Output[Optional[bool]]: """ Administrative role template """ return pulumi.get(self, "administrative") @property @pulumi.getter def annotations(self) -> pulumi.Output[Mapping[str, Any]]: """ Annotations of the resource """ return pulumi.get(self, "annotations") @property @pulumi.getter def builtin(self) -> pulumi.Output[bool]: """ Builtin role template """ return pulumi.get(self, "builtin") @property @pulumi.getter def context(self) -> pulumi.Output[Optional[str]]: """ Context role template """ return pulumi.get(self, "context") @property @pulumi.getter(name="defaultRole") def default_role(self) -> pulumi.Output[Optional[bool]]: """ Default role template for new created cluster or project """ return pulumi.get(self, "default_role") @property @pulumi.getter def description(self) -> pulumi.Output[str]: """ Role template policy description """ return pulumi.get(self, "description") @property @pulumi.getter def external(self) -> pulumi.Output[Optional[bool]]: """ External role template """ return pulumi.get(self, "external") @property @pulumi.getter def hidden(self) -> pulumi.Output[Optional[bool]]: """ Hidden role template """ return pulumi.get(self, "hidden") @property @pulumi.getter def labels(self) -> pulumi.Output[Mapping[str, Any]]: """ Labels of the resource """ return pulumi.get(self, "labels") @property @pulumi.getter def locked(self) -> pulumi.Output[Optional[bool]]: """ Locked role template """ return pulumi.get(self, "locked") @property @pulumi.getter def name(self) -> pulumi.Output[str]: """ Role template policy name """ return pulumi.get(self, "name") @property @pulumi.getter(name="roleTemplateIds") def role_template_ids(self) -> pulumi.Output[Sequence[str]]: """ Inherit role template IDs """ return pulumi.get(self, "role_template_ids") @property @pulumi.getter def rules(self) -> pulumi.Output[Sequence['outputs.RoleTempalteRule']]: """ Role template policy rules """ return pulumi.get(self, "rules")
39.412017
134
0.629968
2,982
27,549
5.636486
0.052985
0.125654
0.126606
0.067051
0.89154
0.87619
0.850547
0.843943
0.840909
0.811221
0
0.00039
0.255581
27,549
698
135
39.468481
0.819193
0.210643
0
0.850117
1
0
0.087619
0.009368
0
0
0
0
0
1
0.163934
false
0.002342
0.016393
0
0.278689
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8
e466a9a58c7acb613da4c757cadb1c102b9de102
120
py
Python
keras/datasets/data_utils.py
insdeep/keras
616201255b434a224fd83430d89810744a6ebc22
[ "MIT" ]
31
2016-09-13T23:14:01.000Z
2022-03-04T16:14:39.000Z
keras/datasets/data_utils.py
insdeep/keras
616201255b434a224fd83430d89810744a6ebc22
[ "MIT" ]
2
2016-11-29T06:04:40.000Z
2020-07-08T16:34:25.000Z
keras/datasets/data_utils.py
insdeep/keras
616201255b434a224fd83430d89810744a6ebc22
[ "MIT" ]
20
2016-08-20T06:59:20.000Z
2020-05-25T12:27:50.000Z
from ..utils.data_utils import * import warnings warnings.warn('data_utils has been moved to keras.utils.data_utils.')
24
69
0.791667
19
120
4.842105
0.578947
0.293478
0.304348
0
0
0
0
0
0
0
0
0
0.108333
120
4
70
30
0.859813
0
0
0
0
0
0.433333
0.191667
0
0
0
0
0
1
0
true
0
0.666667
0
0.666667
0
1
0
0
null
1
1
0
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
0
1
0
1
0
0
7
e471f3573088b0a393ab6d20447a57a875fcac05
2,808
py
Python
test_count_complete_tree_nodes.py
jaebradley/leetcode.py
64634cc7d0e975ddd163f35acb18cc92960b8eb5
[ "MIT" ]
null
null
null
test_count_complete_tree_nodes.py
jaebradley/leetcode.py
64634cc7d0e975ddd163f35acb18cc92960b8eb5
[ "MIT" ]
2
2019-11-13T19:55:49.000Z
2019-11-13T19:55:57.000Z
test_count_complete_tree_nodes.py
jaebradley/leetcode.py
64634cc7d0e975ddd163f35acb18cc92960b8eb5
[ "MIT" ]
null
null
null
from unittest import TestCase from count_complete_tree_nodes import Solution from tree_node import TreeNode class TestCountCompleteTreeNodes(TestCase): def test_count_single_level_fully_complete_nodes(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) self.assertEqual(3, Solution().countNodes(root)) def test_empty_root(self): self.assertEqual(0, Solution().countNodes(None)) def test_left_child_only(self): root = TreeNode(1) root.left = TreeNode(2) self.assertEqual(2, Solution().countNodes(root)) def test_three_levels_all_but_right(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) root.left.left = TreeNode(4) root.left.right = TreeNode(5) root.right.left = TreeNode(6) self.assertEqual(6, Solution().countNodes(root)) def test_three_levels_only_left_subtree(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) root.left.left = TreeNode(4) root.left.right = TreeNode(5) self.assertEqual(5, Solution().countNodes(root)) def test_three_levels_only_far_left(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) root.left.left = TreeNode(4) self.assertEqual(4, Solution().countNodes(root)) class TestCountCompleteTreeNodesRecursively(TestCase): def test_count_single_level_fully_complete_nodes(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) self.assertEqual(3, Solution().countNodesRecursive(root)) def test_empty_root(self): self.assertEqual(0, Solution().countNodesRecursive(None)) def test_left_child_only(self): root = TreeNode(1) root.left = TreeNode(2) self.assertEqual(2, Solution().countNodesRecursive(root)) def test_three_levels_all_but_right(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) root.left.left = TreeNode(4) root.left.right = TreeNode(5) root.right.left = TreeNode(6) self.assertEqual(6, Solution().countNodesRecursive(root)) def test_three_levels_only_left_subtree(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) root.left.left = TreeNode(4) root.left.right = TreeNode(5) self.assertEqual(5, Solution().countNodesRecursive(root)) def test_three_levels_only_far_left(self): root = TreeNode(1) root.left = TreeNode(2) root.right = TreeNode(3) root.left.left = TreeNode(4) self.assertEqual(4, Solution().countNodesRecursive(root))
33.035294
65
0.652778
344
2,808
5.165698
0.125
0.090039
0.090039
0.095667
0.870006
0.853686
0.853686
0.837366
0.804727
0.804727
0
0.024242
0.236111
2,808
84
66
33.428571
0.804196
0
0
0.753623
0
0
0
0
0
0
0
0
0.173913
1
0.173913
false
0
0.043478
0
0.246377
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
e47920396644cbd4d5ed7eec0233690f9a8fcbb9
306
py
Python
wizsite/util/__init__.py
QMasterMoo/wizsite
8def7c59131585b12860e02d918ff86c6217ee91
[ "MIT" ]
null
null
null
wizsite/util/__init__.py
QMasterMoo/wizsite
8def7c59131585b12860e02d918ff86c6217ee91
[ "MIT" ]
1
2019-01-12T22:44:19.000Z
2019-01-12T22:46:06.000Z
wizsite/util/__init__.py
QMasterMoo/wizsite
8def7c59131585b12860e02d918ff86c6217ee91
[ "MIT" ]
null
null
null
""" General utility functions. """ from wizsite.util.shutdown import shutdown_server from wizsite.util.password import create_password_str from wizsite.util.password import verify_password_str from wizsite.util.password import generate_password_str from wizsite.util.header import update_header_dict
38.25
56
0.843137
42
306
5.928571
0.404762
0.220884
0.301205
0.277108
0.542169
0.321285
0.321285
0
0
0
0
0
0.101307
306
8
57
38.25
0.905455
0.084967
0
0
0
0
0
0
0
0
0
0
0
1
0
true
0.6
1
0
1
0
0
0
0
null
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
1
1
1
0
0
0
0
7
e4867e1e4d1a27672e474c9d48a4223a1a46bb88
11,583
py
Python
track_model/track_model_test.py
QUVA-Lab/lang-tracker
6cb3630471765565b6f2d34a160f0cd51d95a082
[ "BSD-2-Clause-FreeBSD" ]
31
2017-09-13T13:40:59.000Z
2022-01-25T16:55:19.000Z
track_model/track_model_test.py
zhenyangli/lang-tracker
dddd808a22582573ab0a5e4c3dbf0ba054e42d61
[ "BSD-3-Clause" ]
4
2017-09-14T01:56:58.000Z
2021-01-28T00:58:58.000Z
track_model/track_model_test.py
QUVA-Lab/lang-tracker
6cb3630471765565b6f2d34a160f0cd51d95a082
[ "BSD-2-Clause-FreeBSD" ]
9
2017-09-28T03:22:08.000Z
2021-01-19T10:56:44.000Z
from __future__ import absolute_import, division, print_function import numpy as np import caffe from caffe import layers as L from caffe import params as P channel_mean = np.array([123.68, 116.779, 103.939], dtype=np.float32) ############################################################################### # Helper Methods ############################################################################### def conv_relu(bottom, nout, ks=3, stride=1, pad=1, bias_term=True, fix_param=False, finetune=False): if fix_param: mult = [dict(lr_mult=0, decay_mult=0), dict(lr_mult=0, decay_mult=0)] conv = L.Convolution(bottom, kernel_size=ks, stride=stride, num_output=nout, pad=pad, param=mult) else: if finetune: mult = [dict(lr_mult=0.1, decay_mult=1), dict(lr_mult=0.2, decay_mult=0)] conv = L.Convolution(bottom, kernel_size=ks, stride=stride, num_output=nout, pad=pad, param=mult) else: mult = [dict(lr_mult=1, decay_mult=1), dict(lr_mult=2, decay_mult=0)] filler = dict(type='xavier') conv = L.Convolution(bottom, kernel_size=ks, stride=stride, num_output=nout, pad=pad, bias_term=bias_term, param=mult, weight_filler=filler) return conv, L.ReLU(conv, in_place=True) def conv(bottom, nout, ks=3, stride=1, pad=1, bias_term=True, fix_param=False, finetune=False): if fix_param: mult = [dict(lr_mult=0, decay_mult=0), dict(lr_mult=0, decay_mult=0)] conv = L.Convolution(bottom, kernel_size=ks, stride=stride, num_output=nout, pad=pad, param=mult) else: if finetune: mult = [dict(lr_mult=0.1, decay_mult=1), dict(lr_mult=0.2, decay_mult=0)] conv = L.Convolution(bottom, kernel_size=ks, stride=stride, num_output=nout, pad=pad, param=mult) else: mult = [dict(lr_mult=1, decay_mult=1), dict(lr_mult=2, decay_mult=0)] filler = dict(type='xavier') conv = L.Convolution(bottom, kernel_size=ks, stride=stride, num_output=nout, pad=pad, bias_term=bias_term, param=mult, weight_filler=filler) return conv def max_pool(bottom, ks=2, stride=2): return L.Pooling(bottom, pool=P.Pooling.MAX, kernel_size=ks, stride=stride) ################################################################################ # Model Generation ############################################################################### def generate_conv_features(split, config): n = caffe.NetSpec() dataset = config.dataset batch_size = config.N mode_str = str(dict(dataset=dataset, split=split, batch_size=batch_size)) n.image, n.label = L.Python(module=config.data_provider, layer=config.data_provider_layer_1, param_str=mode_str, ntop=2) # the base net (VGG-16) n.conv1_1, n.relu1_1 = conv_relu(n.image, 64, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv1_2, n.relu1_2 = conv_relu(n.relu1_1, 64, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.pool1 = max_pool(n.relu1_2) n.conv2_1, n.relu2_1 = conv_relu(n.pool1, 128, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv2_2, n.relu2_2 = conv_relu(n.relu2_1, 128, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.pool2 = max_pool(n.relu2_2) n.conv3_1, n.relu3_1 = conv_relu(n.pool2, 256, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv3_2, n.relu3_2 = conv_relu(n.relu3_1, 256, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv3_3, n.relu3_3 = conv_relu(n.relu3_2, 256, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.pool3 = max_pool(n.relu3_3) # spatial L2 norm n.pool3_lrn = L.LRN(n.pool3, local_size=513, alpha=513, beta=0.5, k=1e-16) n.conv4_1, n.relu4_1 = conv_relu(n.pool3, 512, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv4_2, n.relu4_2 = conv_relu(n.relu4_1, 512, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv4_3, n.relu4_3 = conv_relu(n.relu4_2, 512, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) # spatial L2 norm n.relu4_3_lrn = L.LRN(n.relu4_3, local_size=1025, alpha=1025, beta=0.5, k=1e-16) #n.pool4 = max_pool(n.relu4_3) #n.conv5_1, n.relu5_1 = conv_relu(n.pool4, 512, # fix_param=config.fix_vgg, # finetune=(not config.fix_vgg)) #n.conv5_2, n.relu5_2 = conv_relu(n.relu5_1, 512, # fix_param=config.fix_vgg, # finetune=(not config.fix_vgg)) #n.conv5_3, n.relu5_3 = conv_relu(n.relu5_2, 512, # fix_param=config.fix_vgg, # finetune=(not config.fix_vgg)) # upsampling feature map #n.relu5_3_upsampling = L.Deconvolution(n.relu5_3, # convolution_param=dict(num_output=512, # group=512, # kernel_size=4, # stride=2, # pad=1, # bias_term=False, # weight_filler=dict(type='bilinear')), # param=[dict(lr_mult=0, decay_mult=0)]) # spatial L2 norm #n.relu5_3_lrn = L.LRN(n.relu5_3_upsampling, local_size=1025, alpha=1025, beta=0.5, k=1e-16) # concat all skip features #n.feat_all = n.relu4_3_lrn n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, concat_param=dict(axis=1)) #n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, n.relu5_3_lrn, concat_param=dict(axis=1)) return n.to_proto() def generate_conv_scores(split, config): n = caffe.NetSpec() dataset = config.dataset batch_size = config.N mode_str = str(dict(dataset=dataset, split=split, batch_size=batch_size)) n.image, n.label = L.Python(module=config.data_provider, layer=config.data_provider_layer_2, param_str=mode_str, ntop=2) # the base net (VGG-16) n.conv1_1, n.relu1_1 = conv_relu(n.image, 64, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv1_2, n.relu1_2 = conv_relu(n.relu1_1, 64, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.pool1 = max_pool(n.relu1_2) n.conv2_1, n.relu2_1 = conv_relu(n.pool1, 128, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv2_2, n.relu2_2 = conv_relu(n.relu2_1, 128, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.pool2 = max_pool(n.relu2_2) n.conv3_1, n.relu3_1 = conv_relu(n.pool2, 256, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv3_2, n.relu3_2 = conv_relu(n.relu3_1, 256, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv3_3, n.relu3_3 = conv_relu(n.relu3_2, 256, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.pool3 = max_pool(n.relu3_3) # spatial L2 norm n.pool3_lrn = L.LRN(n.pool3, local_size=513, alpha=513, beta=0.5, k=1e-16) n.conv4_1, n.relu4_1 = conv_relu(n.pool3, 512, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv4_2, n.relu4_2 = conv_relu(n.relu4_1, 512, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) n.conv4_3, n.relu4_3 = conv_relu(n.relu4_2, 512, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) # spatial L2 norm n.relu4_3_lrn = L.LRN(n.relu4_3, local_size=1025, alpha=1025, beta=0.5, k=1e-16) #n.pool4 = max_pool(n.relu4_3) #n.conv5_1, n.relu5_1 = conv_relu(n.pool4, 512, # fix_param=config.fix_vgg, # finetune=(not config.fix_vgg)) #n.conv5_2, n.relu5_2 = conv_relu(n.relu5_1, 512, # fix_param=config.fix_vgg, # finetune=(not config.fix_vgg)) #n.conv5_3, n.relu5_3 = conv_relu(n.relu5_2, 512, # fix_param=config.fix_vgg, # finetune=(not config.fix_vgg)) # upsampling feature map #n.relu5_3_upsampling = L.Deconvolution(n.relu5_3, # convolution_param=dict(num_output=512, # group=512, # kernel_size=4, # stride=2, # pad=1, # bias_term=False, # weight_filler=dict(type='bilinear')), # param=[dict(lr_mult=0, decay_mult=0)]) # spatial L2 norm #n.relu5_3_lrn = L.LRN(n.relu5_3_upsampling, local_size=1025, alpha=1025, beta=0.5, k=1e-16) # concat all skip features #n.feat_all = n.relu4_3_lrn n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, concat_param=dict(axis=1)) #n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, n.relu5_3_lrn, concat_param=dict(axis=1)) # dyn conv / implement as normal conv during test n.scores = conv(n.feat_all, 1, ks=11, stride=1, pad=5, bias_term=False, fix_param=config.fix_vgg, finetune=(not config.fix_vgg)) return n.to_proto()
49.712446
104
0.479323
1,427
11,583
3.64541
0.101612
0.093426
0.124567
0.088235
0.91138
0.906767
0.906767
0.906767
0.906767
0.906767
0
0.066295
0.395752
11,583
232
105
49.926724
0.676954
0.270483
0
0.863309
0
0
0.001487
0
0
0
0
0
0
1
0.035971
false
0
0.035971
0.007194
0.107914
0.007194
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
7
9036c109efdcfbd1cf142da8c3e24ff95c14ef67
175
py
Python
password_reset/forms.py
Sahil1515/VeriListo
7488df770196dc416bf5a5ef0ff29055d0154f74
[ "MIT" ]
null
null
null
password_reset/forms.py
Sahil1515/VeriListo
7488df770196dc416bf5a5ef0ff29055d0154f74
[ "MIT" ]
null
null
null
password_reset/forms.py
Sahil1515/VeriListo
7488df770196dc416bf5a5ef0ff29055d0154f74
[ "MIT" ]
null
null
null
from django import forms from django import forms class password_reset(forms.Form): email=forms.CharField(widget=forms.EmailInput(attrs={'class':'form-control'}))
19.444444
82
0.748571
23
175
5.652174
0.608696
0.153846
0.246154
0.323077
0
0
0
0
0
0
0
0
0.131429
175
9
83
19.444444
0.855263
0
0
0.5
0
0
0.097701
0
0
0
0
0
0
1
0
false
0.25
0.5
0
1
0
1
0
0
null
0
1
1
0
0
0
0
0
0
0
0
0
0
1
0
0
0
0
0
0
0
0
0
0
null
0
0
0
0
0
0
0
1
1
0
1
0
0
7
5f6fbe161c3c6df5bc5b128110288dac79d681a0
22,696
py
Python
gosling/schema/mixins.py
gosling-lang/gos
0099d51e03b1e27aba5fa7554770eb27078716ed
[ "MIT" ]
32
2021-09-08T18:18:49.000Z
2022-02-22T00:27:02.000Z
gosling/schema/mixins.py
gosling-lang/gos
0099d51e03b1e27aba5fa7554770eb27078716ed
[ "MIT" ]
18
2021-09-08T16:18:09.000Z
2022-03-25T19:25:28.000Z
gosling/schema/mixins.py
manzt/ipygosling
0099d51e03b1e27aba5fa7554770eb27078716ed
[ "MIT" ]
2
2022-02-18T13:43:55.000Z
2022-03-11T17:49:41.000Z
# The contents of this file are automatically written by # tools/generate_schema_wrapper.py. Do not modify directly. from . import core from gosling.schemapi import Undefined from typing import TypeVar T = TypeVar('T') class MarkMethodMixin(object): """A mixin class that defines mark methods""" def mark_point(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'point' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "point" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_line(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'line' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "line" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_area(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'area' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "area" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_bar(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'bar' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "bar" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_rect(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'rect' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "rect" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_text(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'text' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "text" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_withinLink(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'withinLink' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "withinLink" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_betweenLink(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'betweenLink' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "betweenLink" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_rule(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'rule' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "rule" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_triangleLeft(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'triangleLeft' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "triangleLeft" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_triangleRight(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'triangleRight' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "triangleRight" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_triangleBottom(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'triangleBottom' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "triangleBottom" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_brush(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'brush' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "brush" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy def mark_header(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined, bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T: """Set the track's mark to 'header' For information on additional arguments, see :class:`Style` """ kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity, bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx, dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend, legendTitle=legendTitle, linePattern=linePattern, linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth, textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight, textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds) copy = self.copy() copy.mark = "header" if any(val is not Undefined for val in kwds.values()): copy.style = core.Style(**kwds) return copy
65.595376
104
0.657517
1,905
22,696
7.825197
0.049344
0.016905
0.009392
0.017844
0.964044
0.964044
0.964044
0.964044
0.964044
0.964044
0
0
0.259473
22,696
346
105
65.595376
0.886952
0.065386
0
0.878229
1
0
0.004798
0
0
0
0
0
0
1
0.051661
false
0
0.01107
0
0.118081
0
0
0
0
null
0
0
0
1
1
1
1
1
1
0
0
0
0
0
0
0
0
0
0
1
1
0
0
0
null
0
0
0
0
0
0
0
0
0
0
0
0
0
8