hexsha
string | size
int64 | ext
string | lang
string | max_stars_repo_path
string | max_stars_repo_name
string | max_stars_repo_head_hexsha
string | max_stars_repo_licenses
list | max_stars_count
int64 | max_stars_repo_stars_event_min_datetime
string | max_stars_repo_stars_event_max_datetime
string | max_issues_repo_path
string | max_issues_repo_name
string | max_issues_repo_head_hexsha
string | max_issues_repo_licenses
list | max_issues_count
int64 | max_issues_repo_issues_event_min_datetime
string | max_issues_repo_issues_event_max_datetime
string | max_forks_repo_path
string | max_forks_repo_name
string | max_forks_repo_head_hexsha
string | max_forks_repo_licenses
list | max_forks_count
int64 | max_forks_repo_forks_event_min_datetime
string | max_forks_repo_forks_event_max_datetime
string | content
string | avg_line_length
float64 | max_line_length
int64 | alphanum_fraction
float64 | qsc_code_num_words_quality_signal
int64 | qsc_code_num_chars_quality_signal
float64 | qsc_code_mean_word_length_quality_signal
float64 | qsc_code_frac_words_unique_quality_signal
float64 | qsc_code_frac_chars_top_2grams_quality_signal
float64 | qsc_code_frac_chars_top_3grams_quality_signal
float64 | qsc_code_frac_chars_top_4grams_quality_signal
float64 | qsc_code_frac_chars_dupe_5grams_quality_signal
float64 | qsc_code_frac_chars_dupe_6grams_quality_signal
float64 | qsc_code_frac_chars_dupe_7grams_quality_signal
float64 | qsc_code_frac_chars_dupe_8grams_quality_signal
float64 | qsc_code_frac_chars_dupe_9grams_quality_signal
float64 | qsc_code_frac_chars_dupe_10grams_quality_signal
float64 | qsc_code_frac_chars_replacement_symbols_quality_signal
float64 | qsc_code_frac_chars_digital_quality_signal
float64 | qsc_code_frac_chars_whitespace_quality_signal
float64 | qsc_code_size_file_byte_quality_signal
float64 | qsc_code_num_lines_quality_signal
float64 | qsc_code_num_chars_line_max_quality_signal
float64 | qsc_code_num_chars_line_mean_quality_signal
float64 | qsc_code_frac_chars_alphabet_quality_signal
float64 | qsc_code_frac_chars_comments_quality_signal
float64 | qsc_code_cate_xml_start_quality_signal
float64 | qsc_code_frac_lines_dupe_lines_quality_signal
float64 | qsc_code_cate_autogen_quality_signal
float64 | qsc_code_frac_lines_long_string_quality_signal
float64 | qsc_code_frac_chars_string_length_quality_signal
float64 | qsc_code_frac_chars_long_word_length_quality_signal
float64 | qsc_code_frac_lines_string_concat_quality_signal
float64 | qsc_code_cate_encoded_data_quality_signal
float64 | qsc_code_frac_chars_hex_words_quality_signal
float64 | qsc_code_frac_lines_prompt_comments_quality_signal
float64 | qsc_code_frac_lines_assert_quality_signal
float64 | qsc_codepython_cate_ast_quality_signal
float64 | qsc_codepython_frac_lines_func_ratio_quality_signal
float64 | qsc_codepython_cate_var_zero_quality_signal
bool | qsc_codepython_frac_lines_pass_quality_signal
float64 | qsc_codepython_frac_lines_import_quality_signal
float64 | qsc_codepython_frac_lines_simplefunc_quality_signal
float64 | qsc_codepython_score_lines_no_logic_quality_signal
float64 | qsc_codepython_frac_lines_print_quality_signal
float64 | qsc_code_num_words
int64 | qsc_code_num_chars
int64 | qsc_code_mean_word_length
int64 | qsc_code_frac_words_unique
null | qsc_code_frac_chars_top_2grams
int64 | qsc_code_frac_chars_top_3grams
int64 | qsc_code_frac_chars_top_4grams
int64 | qsc_code_frac_chars_dupe_5grams
int64 | qsc_code_frac_chars_dupe_6grams
int64 | qsc_code_frac_chars_dupe_7grams
int64 | qsc_code_frac_chars_dupe_8grams
int64 | qsc_code_frac_chars_dupe_9grams
int64 | qsc_code_frac_chars_dupe_10grams
int64 | qsc_code_frac_chars_replacement_symbols
int64 | qsc_code_frac_chars_digital
int64 | qsc_code_frac_chars_whitespace
int64 | qsc_code_size_file_byte
int64 | qsc_code_num_lines
int64 | qsc_code_num_chars_line_max
int64 | qsc_code_num_chars_line_mean
int64 | qsc_code_frac_chars_alphabet
int64 | qsc_code_frac_chars_comments
int64 | qsc_code_cate_xml_start
int64 | qsc_code_frac_lines_dupe_lines
int64 | qsc_code_cate_autogen
int64 | qsc_code_frac_lines_long_string
int64 | qsc_code_frac_chars_string_length
int64 | qsc_code_frac_chars_long_word_length
int64 | qsc_code_frac_lines_string_concat
null | qsc_code_cate_encoded_data
int64 | qsc_code_frac_chars_hex_words
int64 | qsc_code_frac_lines_prompt_comments
int64 | qsc_code_frac_lines_assert
int64 | qsc_codepython_cate_ast
int64 | qsc_codepython_frac_lines_func_ratio
int64 | qsc_codepython_cate_var_zero
int64 | qsc_codepython_frac_lines_pass
int64 | qsc_codepython_frac_lines_import
int64 | qsc_codepython_frac_lines_simplefunc
int64 | qsc_codepython_score_lines_no_logic
int64 | qsc_codepython_frac_lines_print
int64 | effective
string | hits
int64 |
|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|---|
f93677e3c0422132e4317200707c94f174746b85
| 12,685
|
py
|
Python
|
dymos/examples/brachistochrone/doc/test_doc_brachistochrone.py
|
naylor-b/dymos
|
56ee72041056ae20c3332d060e291c4da93844b1
|
[
"Apache-2.0"
] | null | null | null |
dymos/examples/brachistochrone/doc/test_doc_brachistochrone.py
|
naylor-b/dymos
|
56ee72041056ae20c3332d060e291c4da93844b1
|
[
"Apache-2.0"
] | null | null | null |
dymos/examples/brachistochrone/doc/test_doc_brachistochrone.py
|
naylor-b/dymos
|
56ee72041056ae20c3332d060e291c4da93844b1
|
[
"Apache-2.0"
] | null | null | null |
from __future__ import print_function, absolute_import, division
import os
import unittest
import matplotlib
matplotlib.use('Agg')
import matplotlib.pyplot as plt
plt.style.use('ggplot')
class TestBrachistochroneForDocs(unittest.TestCase):
def tearDown(self):
for filename in ['coloring.json', 'SLSQP.out', 'SNOPT_print.out', 'SNOPT_summary.out']:
if os.path.exists(filename):
os.remove(filename)
def test_brachistochrone_for_docs_gauss_lobatto(self):
from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, \
SqliteRecorder, CaseReader
from openmdao.utils.assert_utils import assert_rel_error
import dymos as dm
from dymos.examples.plotting import plot_results
from dymos.examples.brachistochrone import BrachistochroneODE
#
# Initialize the Problem and the optimization driver
#
p = Problem(model=Group())
p.driver = ScipyOptimizeDriver()
p.driver.options['dynamic_simul_derivs'] = True
#
# Create a trajectory and add a phase to it
#
traj = p.model.add_subsystem('traj', dm.Trajectory())
phase = traj.add_phase('phase0',
dm.Phase(ode_class=BrachistochroneODE,
transcription=dm.GaussLobatto(num_segments=10)))
#
# Set the variables
#
phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10))
phase.set_state_options('x', fix_initial=True, fix_final=True)
phase.set_state_options('y', fix_initial=True, fix_final=True)
phase.set_state_options('v', fix_initial=True)
phase.add_control('theta', units='deg', lower=0.01, upper=179.9)
phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665)
#
# Minimize time at the end of the phase
#
phase.add_objective('time', loc='final', scaler=10)
p.model.linear_solver = DirectSolver()
#
# Setup the Problem
#
p.setup()
#
# Set the initial values
#
p['traj.phase0.t_initial'] = 0.0
p['traj.phase0.t_duration'] = 2.0
p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input')
p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input')
p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input')
p['traj.phase0.controls:theta'] = phase.interpolate(ys=[5, 100.5], nodes='control_input')
#
# Solve for the optimal trajectory
#
p.run_driver()
# Test the results
assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016, tolerance=1.0E-3)
# Generate the explicitly simulated trajectory
exp_out = traj.simulate()
plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y',
'x (m)', 'y (m)'),
('traj.phase0.timeseries.time', 'traj.phase0.timeseries.controls:theta',
'time (s)', 'theta (deg)')],
title='Brachistochrone Solution\nHigh-Order Gauss-Lobatto Method',
p_sol=p, p_sim=exp_out)
plt.show()
def test_brachistochrone_for_docs_radau(self):
from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, SqliteRecorder
from openmdao.utils.assert_utils import assert_rel_error
import dymos as dm
from dymos.examples.plotting import plot_results
from dymos.examples.brachistochrone import BrachistochroneODE
#
# Initialize the Problem and the optimization driver
#
p = Problem(model=Group())
p.driver = ScipyOptimizeDriver()
p.driver.options['dynamic_simul_derivs'] = True
#
# Create a trajectory and add a phase to it
#
traj = p.model.add_subsystem('traj', dm.Trajectory())
phase = traj.add_phase('phase0',
dm.Phase(ode_class=BrachistochroneODE,
transcription=dm.Radau(num_segments=10)))
#
# Set the variables
#
phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10))
phase.set_state_options('x', fix_initial=True, fix_final=True)
phase.set_state_options('y', fix_initial=True, fix_final=True)
phase.set_state_options('v', fix_initial=True)
phase.add_control('theta', units='deg', lower=0.01, upper=179.9)
phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665)
#
# Minimize time at the end of the phase
#
phase.add_objective('time', loc='final', scaler=10)
p.model.linear_solver = DirectSolver()
#
# Setup the Problem
#
p.setup()
#
# Set the initial values
#
p['traj.phase0.t_initial'] = 0.0
p['traj.phase0.t_duration'] = 2.0
p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input')
p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input')
p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input')
p['traj.phase0.controls:theta'] = phase.interpolate(ys=[5, 100.5], nodes='control_input')
#
# Solve for the optimal trajectory
#
p.run_driver()
# Test the results
assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016,
tolerance=1.0E-3)
# Generate the explicitly simulated trajectory
exp_out = traj.simulate()
plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y',
'x (m)', 'y (m)'),
('traj.phase0.timeseries.time', 'traj.phase0.timeseries.controls:theta',
'time (s)', 'theta (deg)')],
title='Brachistochrone Solution\nRadau Pseudospectral Method',
p_sol=p, p_sim=exp_out)
plt.show()
def test_brachistochrone_for_docs_runge_kutta(self):
from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, SqliteRecorder
from openmdao.utils.assert_utils import assert_rel_error
import dymos as dm
from dymos.examples.plotting import plot_results
from dymos.examples.brachistochrone import BrachistochroneODE
#
# Initialize the Problem and the optimization driver
#
p = Problem(model=Group())
p.driver = ScipyOptimizeDriver()
p.driver.options['dynamic_simul_derivs'] = True
#
# Create a trajectory and add a phase to it
#
traj = p.model.add_subsystem('traj', dm.Trajectory())
phase = traj.add_phase('phase0',
dm.Phase(ode_class=BrachistochroneODE,
transcription=dm.RungeKutta(num_segments=10)))
#
# Set the variables
#
phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10))
phase.set_state_options('x', fix_initial=True)
phase.set_state_options('y', fix_initial=True)
phase.set_state_options('v', fix_initial=True)
phase.add_control('theta', units='deg', lower=0.01, upper=179.9)
phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665)
#
# Final state values are not optimization variables, so we must enforce final values
# with boundary constraints, not simple bounds.
#
phase.add_boundary_constraint('x', loc='final', equals=10)
phase.add_boundary_constraint('y', loc='final', equals=5)
#
# Minimize time at the end of the phase
#
phase.add_objective('time', loc='final', scaler=10)
p.model.linear_solver = DirectSolver()
#
# Setup the Problem
#
p.setup()
#
# Set the initial values
#
p['traj.phase0.t_initial'] = 0.0
p['traj.phase0.t_duration'] = 2.0
p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input')
p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input')
p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input')
p['traj.phase0.controls:theta'] = phase.interpolate(ys=[5, 100.5], nodes='control_input')
#
# Solve for the optimal trajectory
#
p.run_driver()
# Test the results
assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016,
tolerance=1.0E-3)
# Generate the explicitly simulated trajectory
exp_out = traj.simulate()
plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y',
'x (m)', 'y (m)'),
('traj.phase0.timeseries.time', 'traj.phase0.timeseries.controls:theta',
'time (s)', 'theta (deg)')],
title='Brachistochrone Solution\nRK4 Shooting Method',
p_sol=p, p_sim=exp_out)
plt.show()
def test_brachistochrone_for_docs_runge_kutta_polynomial_controls(self):
from openmdao.api import Problem, Group, ScipyOptimizeDriver, DirectSolver, SqliteRecorder
from openmdao.utils.assert_utils import assert_rel_error
import dymos as dm
from dymos.examples.plotting import plot_results
from dymos.examples.brachistochrone import BrachistochroneODE
#
# Initialize the Problem and the optimization driver
#
p = Problem(model=Group())
p.driver = ScipyOptimizeDriver()
p.driver.options['dynamic_simul_derivs'] = True
#
# Create a trajectory and add a phase to it
#
traj = p.model.add_subsystem('traj', dm.Trajectory())
phase = traj.add_phase('phase0',
dm.Phase(ode_class=BrachistochroneODE,
transcription=dm.RungeKutta(num_segments=10)))
#
# Set the variables
#
phase.set_time_options(initial_bounds=(0, 0), duration_bounds=(.5, 10))
phase.set_state_options('x', fix_initial=True)
phase.set_state_options('y', fix_initial=True)
phase.set_state_options('v', fix_initial=True)
phase.add_polynomial_control('theta', units='deg', lower=0.01, upper=179.9, order=1)
phase.add_design_parameter('g', units='m/s**2', opt=False, val=9.80665)
#
# Final state values are not optimization variables, so we must enforce final values
# with boundary constraints, not simple bounds.
#
phase.add_boundary_constraint('x', loc='final', equals=10)
phase.add_boundary_constraint('y', loc='final', equals=5)
#
# Minimize time at the end of the phase
#
phase.add_objective('time', loc='final', scaler=10)
p.model.linear_solver = DirectSolver()
#
# Setup the Problem
#
p.setup()
#
# Set the initial values
#
p['traj.phase0.t_initial'] = 0.0
p['traj.phase0.t_duration'] = 2.0
p['traj.phase0.states:x'] = phase.interpolate(ys=[0, 10], nodes='state_input')
p['traj.phase0.states:y'] = phase.interpolate(ys=[10, 5], nodes='state_input')
p['traj.phase0.states:v'] = phase.interpolate(ys=[0, 9.9], nodes='state_input')
p['traj.phase0.polynomial_controls:theta'][:] = 5.0
#
# Solve for the optimal trajectory
#
p.run_driver()
# Test the results
assert_rel_error(self, p.get_val('traj.phase0.timeseries.time')[-1], 1.8016,
tolerance=1.0E-3)
# Generate the explicitly simulated trajectory
exp_out = traj.simulate()
plot_results([('traj.phase0.timeseries.states:x', 'traj.phase0.timeseries.states:y',
'x (m)', 'y (m)'),
('traj.phase0.timeseries.time', 'traj.phase0.timeseries.polynomial_controls:theta',
'time (s)', 'theta (deg)')],
title='Brachistochrone Solution\nRK4 Shooting and Polynomial Controls',
p_sol=p, p_sim=exp_out)
plt.show()
if __name__ == '__main__':
unittest.main()
| 36.875
| 105
| 0.595034
| 1,517
| 12,685
| 4.828609
| 0.12261
| 0.060068
| 0.036041
| 0.032765
| 0.930648
| 0.926689
| 0.926689
| 0.926689
| 0.926689
| 0.923686
| 0
| 0.027964
| 0.283957
| 12,685
| 343
| 106
| 36.982507
| 0.778487
| 0.11013
| 0
| 0.827586
| 0
| 0
| 0.176723
| 0.081344
| 0
| 0
| 0
| 0
| 0.045977
| 1
| 0.028736
| false
| 0
| 0.143678
| 0
| 0.178161
| 0.011494
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
f9738638a008590bd6d8a2b0e9efd5a594e867be
| 30,695
|
py
|
Python
|
polynomials_on_simplices/polynomial/test/polynomials_simplex_bernstein_basis_test.py
|
FAndersson/polynomials_on_simplices
|
f015a4772c817bfa99b0d6b726667a38a174b064
|
[
"MIT"
] | 1
|
2021-03-17T11:41:21.000Z
|
2021-03-17T11:41:21.000Z
|
polynomials_on_simplices/polynomial/test/polynomials_simplex_bernstein_basis_test.py
|
FAndersson/polynomials_on_simplices
|
f015a4772c817bfa99b0d6b726667a38a174b064
|
[
"MIT"
] | null | null | null |
polynomials_on_simplices/polynomial/test/polynomials_simplex_bernstein_basis_test.py
|
FAndersson/polynomials_on_simplices
|
f015a4772c817bfa99b0d6b726667a38a174b064
|
[
"MIT"
] | null | null | null |
import sys
import numpy as np
import pytest
import polynomials_on_simplices.algebra.multiindex as multiindex
from polynomials_on_simplices.calculus.finite_difference import central_difference, central_difference_jacobian
from polynomials_on_simplices.geometry.primitives.simplex import affine_map_from_unit
from polynomials_on_simplices.polynomial.polynomials_monomial_basis import unique_identifier_monomial_basis
from polynomials_on_simplices.polynomial.polynomials_simplex_base import polynomials_equal_on_simplex
from polynomials_on_simplices.polynomial.polynomials_simplex_bernstein_basis import (
PolynomialBernsteinSimplex, bernstein_basis_fn_simplex, dual_bernstein_basis_fn_simplex,
dual_vector_valued_bernstein_basis_simplex, get_dimension, unique_identifier_bernstein_basis_simplex,
unit_polynomial_simplex, vector_valued_bernstein_basis_simplex, zero_polynomial_simplex)
from polynomials_on_simplices.probability_theory.uniform_sampling import nsimplex_sampling
def test_call():
vertices = np.random.random_sample((2, 1))
# Test calling a scalar valued univariate polynomial
p = PolynomialBernsteinSimplex([1, 1, 1], vertices, 2)
value = p(0.5)
expected_value = 1
assert abs(value - expected_value) < 1e-12
# Test calling a vector valued univariate polynomial
p = PolynomialBernsteinSimplex([[1, 1], [1, 1], [1, 1]], vertices, 2)
value = p(0.5)
expected_value = np.array([1, 1])
assert np.linalg.norm(value - expected_value) < 1e-10
vertices = np.random.random_sample((3, 2))
# Test calling a scalar valued bivariate polynomial
p = PolynomialBernsteinSimplex([1, 1, 1, 1, 1, 1], vertices, 2)
value = p([1 / 3, 1 / 3])
expected_value = 1
assert abs(value - expected_value) < 1e-12
# Test calling a vector valued bivariate polynomial
p = PolynomialBernsteinSimplex([[1, 1], [1, 1], [1, 1], [1, 1], [1, 1], [1, 1]], vertices, 2)
value = p([1 / 3, 1 / 3])
expected_value = np.array([1, 1])
assert np.linalg.norm(value - expected_value) < 1e-10
def test_getitem():
# Test getting the components of a polynomial in P(R^m, R^n)
for m in [1, 2, 3]:
for n in [1, 2, 3]:
r = 3
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r)
for i in range(n):
if n == 1:
def pi_expected(x):
return p(x)
else:
def pi_expected(x):
return p(x)[i]
assert polynomials_equal_on_simplex(p[i], pi_expected, r, vertices)
def test_add():
# Test adding two polynomials in P(R^m, R^n)
for m in [1, 2, 3]:
for n in [1, 2, 3]:
r = 3
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
b = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
b = np.random.random_sample((dim, n))
vertices = np.random.random_sample((m + 1, m))
p1 = PolynomialBernsteinSimplex(a, vertices, r)
p2 = PolynomialBernsteinSimplex(b, vertices, r)
def p_expected(x):
return p1(x) + p2(x)
assert polynomials_equal_on_simplex(p1 + p2, p_expected, r, vertices)
# Test adding two polynomials in P(R^m, R^n) of different degree
for m in [1, 2, 3]:
for n in [1, 2, 3]:
r1 = 2
r2 = 3
dim1 = get_dimension(r1, m)
dim2 = get_dimension(r2, m)
if n == 1:
a = np.random.random_sample(dim1)
b = np.random.random_sample(dim2)
else:
a = np.random.random_sample((dim1, n))
b = np.random.random_sample((dim2, n))
vertices = np.random.random_sample((m + 1, m))
p1 = PolynomialBernsteinSimplex(a, vertices, r1)
p2 = PolynomialBernsteinSimplex(b, vertices, r2)
def p_expected(x):
return p1(x) + p2(x)
assert polynomials_equal_on_simplex(p1 + p2, p_expected, max(r1, r2), vertices)
def test_sub():
# Test subtracting two polynomials in P(R^m, R^n)
for m in [1, 2, 3]:
for n in [1, 2, 3]:
r = 3
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
b = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
b = np.random.random_sample((dim, n))
vertices = np.random.random_sample((m + 1, m))
p1 = PolynomialBernsteinSimplex(a, vertices, r)
p2 = PolynomialBernsteinSimplex(b, vertices, r)
def p_expected(x):
return p1(x) - p2(x)
assert polynomials_equal_on_simplex(p1 - p2, p_expected, r, vertices)
# Test subtracting two polynomials in P(R^m, R^n) of different degree
for m in [1, 2, 3]:
for n in [1, 2, 3]:
r1 = 2
r2 = 3
dim1 = get_dimension(r1, m)
dim2 = get_dimension(r2, m)
if n == 1:
a = np.random.random_sample(dim1)
b = np.random.random_sample(dim2)
else:
a = np.random.random_sample((dim1, n))
b = np.random.random_sample((dim2, n))
vertices = np.random.random_sample((m + 1, m))
p1 = PolynomialBernsteinSimplex(a, vertices, r1)
p2 = PolynomialBernsteinSimplex(b, vertices, r2)
def p_expected(x):
return p1(x) - p2(x)
assert polynomials_equal_on_simplex(p1 - p2, p_expected, r, vertices)
@pytest.mark.slow
def test_mul():
# Test multiplying a polynomial in P(R^m, R^n) with a scalar
for m in [1, 2, 3]:
for n in [1, 2, 3]:
r = 3
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
s = np.random.rand()
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r)
def p_expected(x):
return s * p(x)
assert polynomials_equal_on_simplex(s * p, p_expected, r, vertices)
assert polynomials_equal_on_simplex(p * s, p_expected, r, vertices)
# Test multiplying a polynomial in P(R^m) = P(R^m, R^1) with a vector
for m in [1, 2, 3]:
r = 3
dim = get_dimension(r, m)
a = np.random.random_sample(dim)
v = np.random.rand(2)
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r)
def p_expected(x):
return v * p(x)
# Can't do this, because this will be handled by the Numpy ndarray __mul__ method and result in Numpy array
# of polynomials
# assert polynomials_equal(v * p, p_expected, r, m)
assert polynomials_equal_on_simplex(p * v, p_expected, r, vertices)
# Test multiplying two polynomials in P(R^m) = P(R^m, R^1)
for m in [1, 2, 3]:
r1 = 3
r2 = 2
dim1 = get_dimension(r1, m)
a = np.random.random_sample(dim1)
dim2 = get_dimension(r2, m)
b = np.random.random_sample(dim2)
vertices = np.random.random_sample((m + 1, m))
p1 = PolynomialBernsteinSimplex(a, vertices, r1)
p2 = PolynomialBernsteinSimplex(b, vertices, r2)
def p_expected(x):
return p1(x) * p2(x)
assert polynomials_equal_on_simplex(p1 * p2, p_expected, r1 + r2, vertices)
def test_div():
# Test dividing a polynomial in P(R^m, R^n) with a scalar
for m in [1, 2, 3]:
for n in [1, 2, 3]:
r = 3
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
s = np.random.rand()
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r)
def p_expected(x):
return p(x) / s
assert polynomials_equal_on_simplex(p / s, p_expected, r, vertices)
@pytest.mark.slow
def test_pow():
# Test taking the power of a polynomial in P(R^m, R^n)
r = 3
for m in [1, 2, 3]:
for n in [1, 2, 3]:
if n == 1:
exponents = range(r + 1)
else:
exponents = multiindex.generate_all(n, r)
for exponent in exponents:
r_base = 1
dim = get_dimension(r_base, m)
if n == 1:
a = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r_base)
if n == 1:
def p_expected(x):
return p(x)**exponent
else:
def p_expected(x):
return multiindex.power(p(x), exponent)
assert polynomials_equal_on_simplex(p**exponent, p_expected, r, vertices)
@pytest.mark.slow
def test_partial_derivative():
for m in [1, 2, 3]:
for n in [1, 2, 3]:
for r in [0, 1, 2, 3]:
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r)
for i in range(m):
if n == 1:
if m == 1:
def dp_dxi_fd(x):
return central_difference(p, x)
else:
def dp_dxi_fd(x):
return central_difference(p, x)[i]
else:
def dp_dxi_fd(x):
return central_difference_jacobian(p, n, x)[:, i]
assert polynomials_equal_on_simplex(p.partial_derivative(i), dp_dxi_fd, r, vertices, rel_tol=1e-4)
@pytest.mark.slow
def test_degree_elevate():
for m in [1, 2, 3]:
for n in [1, 2, 3]:
for r in [0, 1, 2, 3]:
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r)
for s in range(r, r + 3):
q = p.degree_elevate(s)
assert polynomials_equal_on_simplex(p, q, s, vertices)
@pytest.mark.slow
def test_to_monomial_basis():
for m in [1, 2, 3]:
for n in [2, 3]:
for r in [0, 1, 2, 3]:
dim = get_dimension(r, m)
if n == 1:
a = np.random.random_sample(dim)
else:
a = np.random.random_sample((dim, n))
vertices = np.random.random_sample((m + 1, m))
p = PolynomialBernsteinSimplex(a, vertices, r)
q = p.to_monomial_basis()
assert q.basis() == unique_identifier_monomial_basis()
assert polynomials_equal_on_simplex(p, q, r, vertices)
def test_latex_str():
# Test univariate polynomial
vertices = np.array([[1], [3]])
p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 2)
assert p.latex_str() == "b_{0, 2}(x) - 2 b_{1, 2}(x) + 3 b_{2, 2}(x)"
# Test bivariate polynomial
vertices = np.array([[2, 3], [4, 3], [2, 5]])
p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 1)
assert p.latex_str() == "b_{(0, 0), 1}(x) - 2 b_{(1, 0), 1}(x) + 3 b_{(0, 1), 1}(x)"
p = PolynomialBernsteinSimplex([0, 1, 0], vertices, 1)
assert p.latex_str() == "b_{(1, 0), 1}(x)"
p = PolynomialBernsteinSimplex([0, 0, -1], vertices, 1)
assert p.latex_str() == "-b_{(0, 1), 1}(x)"
p = PolynomialBernsteinSimplex([1, -2, 3, 0.5, 1, 2], vertices, 2)
assert p.latex_str() == r"b_{(0, 0), 2}(x) - 2 b_{(1, 0), 2}(x) + 3 b_{(2, 0), 2}(x) + " \
r"\frac{1}{2} b_{(0, 1), 2}(x) + b_{(1, 1), 2}(x) + 2 b_{(0, 2), 2}(x)"
# Test vector valued polynomial
vertices = np.array([[1], [3]])
p = PolynomialBernsteinSimplex([[1, 1], [-2, -3], [3, 2]], vertices, 2)
assert p.latex_str() == r"\begin{pmatrix}1 \\ 1\end{pmatrix} b_{0, 2}(x)" \
r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} b_{1, 2}(x)" \
r" + \begin{pmatrix}3 \\ 2\end{pmatrix} b_{2, 2}(x)"
# Test bivariate vector valued polynomial
vertices = np.array([[2, 3], [4, 3], [2, 5]])
p = PolynomialBernsteinSimplex([[1, 1], [-2, -3], [3, 2]], vertices, 1)
assert p.latex_str() == r"\begin{pmatrix}1 \\ 1\end{pmatrix} b_{(0, 0), 1}(x)" \
r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} b_{(1, 0), 1}(x)" \
r" + \begin{pmatrix}3 \\ 2\end{pmatrix} b_{(0, 1), 1}(x)"
def test_latex_str_expanded():
# Test univariate polynomial
vertices = np.array([[1], [3]])
p = PolynomialBernsteinSimplex([1, -2], vertices, 1)
assert p.latex_str_expanded() == r"(\frac{3}{2} - \frac{1}{2} x) - 2 (-\frac{1}{2} + \frac{1}{2} x)"
# Test bivariate polynomial
vertices = np.array([[2, 3], [4, 3], [2, 5]])
p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 1)
assert p.latex_str_expanded() == r"(\frac{7}{2} - \frac{1}{2} x_1 - \frac{1}{2} x_2)"\
r" - 2 (-1 + \frac{1}{2} x_1)"\
r" + 3 (-\frac{3}{2} + \frac{1}{2} x_2)"
# Test vector valued polynomial
vertices = np.array([[1], [3]])
p = PolynomialBernsteinSimplex([[1, 1], [-2, -3]], vertices, 1)
assert p.latex_str_expanded() == r"\begin{pmatrix}1 \\ 1\end{pmatrix} (\frac{3}{2} - \frac{1}{2} x)" \
r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} (-\frac{1}{2} + \frac{1}{2} x)"
# Test bivariate vector valued polynomial
vertices = np.array([[2, 3], [4, 3], [2, 5]])
p = PolynomialBernsteinSimplex([[1, 1], [-2, -3], [3, 2]], vertices, 1)
assert p.latex_str_expanded() == (
r"\begin{pmatrix}1 \\ 1\end{pmatrix} (\frac{7}{2} - \frac{1}{2} x_1 - \frac{1}{2} x_2)"
+ r" + \begin{pmatrix}-2 \\ -3\end{pmatrix} (-1 + \frac{1}{2} x_1)"
+ r" + \begin{pmatrix}3 \\ 2\end{pmatrix} (-\frac{3}{2} + \frac{1}{2} x_2)")
def test_code_str():
# Test univariate polynomial
vertices = np.array([[1], [3]])
p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 2)
fn_name = "test_code_str"
code = p.code_str(fn_name)
compiled_code = compile(code, fn_name, 'exec')
exec(compiled_code, globals(), locals())
test_fn = locals()[fn_name]
x = np.random.rand()
assert p(x) == test_fn(x)
# Test vector valued univariate polynomial
vertices = np.array([[1], [3]])
p = PolynomialBernsteinSimplex([[1, 1], [-2, -2], [3, 3]], vertices, 2)
fn_name = "test_code_str"
code = p.code_str(fn_name)
compiled_code = compile(code, fn_name, 'exec')
exec(compiled_code, globals(), locals())
test_fn = locals()[fn_name]
x = np.random.rand()
assert np.linalg.norm(p(x) - test_fn(x)) < 1e-14
# Test bivariate polynomial
vertices = np.array([[2, 3], [4, 3], [2, 5]])
p = PolynomialBernsteinSimplex([1, -2, 3], vertices, 1)
fn_name = "test_code_str"
code = p.code_str(fn_name)
compiled_code = compile(code, fn_name, 'exec')
exec(compiled_code, globals(), locals())
test_fn = locals()[fn_name]
x = np.random.rand(2)
assert p(x) == test_fn(x)
# Test vector valued bivariate polynomial
vertices = np.array([[2, 3], [4, 3], [2, 5]])
p = PolynomialBernsteinSimplex([[1, 1], [-2, -2], [3, 3]], vertices, 1)
fn_name = "test_code_str"
code = p.code_str(fn_name)
compiled_code = compile(code, fn_name, 'exec')
exec(compiled_code, globals(), locals())
test_fn = locals()[fn_name]
x = np.random.rand(2)
assert np.linalg.norm(p(x) - test_fn(x)) < 1e-14
class TestUnivariateBernsteinBasis:
@staticmethod
def get_expected_basis_fns():
return [
[
lambda x: 1
],
[
lambda x: -0.5 * x + 1.5,
lambda x: 0.5 * x - 0.5
],
[
lambda x: (0.5 * x - 1.5)**2,
lambda x: -0.5 * x**2 + 2.0 * x - 1.5,
lambda x: 0.25 * (x - 1)**2
],
[
lambda x: -(0.5 * x - 1.5)**3,
lambda x: 1.5 * (0.5 * x - 1.5)**2 * (x - 1),
lambda x: (-0.375 * x + 1.125) * (x - 1)**2,
lambda x: 0.125 * (x - 1)**3
]
]
@staticmethod
def test_basis_fn():
vertices = np.array([[1], [3]])
for r in range(4):
for i in range(r + 1):
p = bernstein_basis_fn_simplex(i, r, vertices)
p_expected = TestUnivariateBernsteinBasis.get_expected_basis_fns()[r][i]
assert polynomials_equal_on_simplex(p, p_expected, r, vertices)
@staticmethod
def test_vector_valued_basis_fn():
vertices = np.array([[1], [3]])
n = 2
r = 2
basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential")
basis_expected = [
PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1]], vertices, r)
]
for i in range(len(basis)):
assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices)
assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices)
basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved")
basis_expected = [
PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1]], vertices, r)
]
for i in range(len(basis)):
assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices)
assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices)
@staticmethod
def test_dual_basis_fn():
vertices = np.array([[1], [3]])
for r in range(1, 4):
for mu in multiindex.generate_all(1, r):
q = dual_bernstein_basis_fn_simplex(mu, r, vertices)
for nu in multiindex.generate_all(1, r):
p = bernstein_basis_fn_simplex(nu, r, vertices)
if mu == nu:
assert abs(q(p) - 1.0) < 1e-10
else:
assert abs(q(p)) < 1e-10
@staticmethod
def test_dual_vector_valued_basis_fn():
vertices = np.array([[1], [3]])
n = 2
for r in range(4):
basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential")
dual_basis = dual_vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential")
for i in range(len(basis)):
p = basis[i]
for j in range(len(basis)):
q = dual_basis[j]
if i == j:
assert abs(q(p) - 1.0) < 1e-10
else:
assert abs(q(p)) < 1e-10
for r in range(4):
basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved")
dual_basis = dual_vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved")
for i in range(len(basis)):
p = basis[i]
for j in range(len(basis)):
q = dual_basis[j]
if i == j:
assert abs(q(p) - 1.0) < 1e-10
else:
assert abs(q(p)) < 1e-10
class TestBivariateBernsteinBasis:
@staticmethod
def get_expected_basis_fns():
return [
{
(0, 0): lambda x: 1
},
{
(0, 0): lambda x: -0.5 * x[0] - 0.5 * x[1] + 3.5,
(1, 0): lambda x: 0.5 * x[0] - 1.0,
(0, 1): lambda x: 0.5 * x[1] - 1.5
},
{
(0, 0): lambda x: (0.5 * x[0] + 0.5 * x[1] - 3.5)**2,
(1, 0): lambda x: -2 * (0.5 * x[0] - 1.0) * (0.5 * x[0] + 0.5 * x[1] - 3.5),
(2, 0): lambda x: (0.5 * x[0] - 1.0)**2,
(0, 1): lambda x: -2 * (0.5 * x[1] - 1.5) * (0.5 * x[0] + 0.5 * x[1] - 3.5),
(1, 1): lambda x: 2 * (0.5 * x[0] - 1.0) * (0.5 * x[1] - 1.5),
(0, 2): lambda x: (0.5 * x[1] - 1.5)**2
},
{
(0, 0): lambda x: -(0.5 * x[0] + 0.5 * x[1] - 3.5)**3,
(1, 0): lambda x: (1.5 * x[0] - 3.0) * (0.5 * x[0] + 0.5 * x[1] - 3.5)**2,
(2, 0): lambda x: (0.5 * x[0] - 1.0)**2 * (-1.5 * x[0] - 1.5 * x[1] + 10.5),
(3, 0): lambda x: (0.5 * x[0] - 1.0)**3,
(0, 1): lambda x: (1.5 * x[1] - 4.5) * (0.5 * x[0] + 0.5 * x[1] - 3.5)**2,
(1, 1): lambda x: -6 * (0.5 * x[0] - 1.0) * (0.5 * x[1] - 1.5) * (0.5 * x[0] + 0.5 * x[1] - 3.5),
(2, 1): lambda x: (0.5 * x[0] - 1.0)**2 * (1.5 * x[1] - 4.5),
(0, 2): lambda x: (0.5 * x[1] - 1.5)**2 * (-1.5 * x[0] - 1.5 * x[1] + 10.5),
(1, 2): lambda x: (1.5 * x[0] - 3.0) * (0.5 * x[1] - 1.5)**2,
(0, 3): lambda x: (0.5 * x[1] - 1.5)**3
},
]
@staticmethod
def test_basis_fn():
vertices = np.array([[2, 3], [4, 3], [2, 5]])
m = 2
for r in range(4):
for nu in multiindex.generate_all(m, r):
p = bernstein_basis_fn_simplex(nu, r, vertices)
p_expected = TestBivariateBernsteinBasis.get_expected_basis_fns()[r][nu]
assert polynomials_equal_on_simplex(p, p_expected, r, vertices)
@staticmethod
def test_basis_fn_vector_valued():
vertices = np.array([[2, 3], [4, 3], [2, 5]])
n = 2
r = 2
basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="sequential")
basis_expected = [
PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [1, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [1, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [1, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 1], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 1], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 1]], vertices, r)
]
for i in range(len(basis)):
assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices)
assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices)
basis = vector_valued_bernstein_basis_simplex(r, vertices, n, ordering="interleaved")
basis_expected = [
PolynomialBernsteinSimplex([[1, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 1], [0, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [1, 0], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 1], [0, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [1, 0], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 1], [0, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [1, 0], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 1], [0, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [1, 0], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 1], [0, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [1, 0]], vertices, r),
PolynomialBernsteinSimplex([[0, 0], [0, 0], [0, 0], [0, 0], [0, 0], [0, 1]], vertices, r)
]
for i in range(len(basis)):
assert polynomials_equal_on_simplex(basis[i][0], basis_expected[i][0], r, vertices)
assert polynomials_equal_on_simplex(basis[i][1], basis_expected[i][1], r, vertices)
@staticmethod
@pytest.mark.slow
def test_dual_basis_fn():
vertices = np.array([[2, 3], [4, 3], [2, 5]])
m = 2
r = 3
for mu in multiindex.generate_all(m, r):
q = dual_bernstein_basis_fn_simplex(mu, r, vertices)
for nu in multiindex.generate_all(m, r):
p = bernstein_basis_fn_simplex(nu, r, vertices)
if mu == nu:
assert abs(q(p) - 1.0) < 1e-10
else:
assert abs(q(p)) < 1e-10
@staticmethod
@pytest.mark.slow
def test_dual_vector_valued_basis_fn():
vertices = np.array([[2, 3], [4, 3], [2, 5]])
n = 2
for r in range(4):
basis = vector_valued_bernstein_basis_simplex(r, vertices, n)
dual_basis = dual_vector_valued_bernstein_basis_simplex(r, vertices, n)
for i in range(len(basis)):
p = basis[i]
for j in range(len(basis)):
q = dual_basis[j]
if i == j:
assert abs(q(p) - 1.0) < 1e-10
else:
assert abs(q(p)) < 1e-10
def test_zero_polynomial():
for m in [1, 2, 3]:
x = nsimplex_sampling(m, 1)[0]
vertices = np.random.random_sample((m + 1, m))
p = zero_polynomial_simplex(vertices, 1)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert abs(p(x)) < 1e-12
for n in [2, 3]:
p = zero_polynomial_simplex(vertices, n)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert np.linalg.norm(p(x)) < 1e-12
# Test zero polynomial expressed in the degree 2 polynomial basis
r = 2
for m in [1, 2, 3]:
x = nsimplex_sampling(m, 1)[0]
vertices = np.random.random_sample((m + 1, m))
p = zero_polynomial_simplex(vertices, r, 1)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert p.degree() == r
assert abs(p(x)) < 1e-12
for n in [2, 3]:
p = zero_polynomial_simplex(vertices, r, n)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert p.degree() == r
assert np.linalg.norm(p(x)) < 1e-12
def test_unit_polynomial():
for m in [1, 2, 3]:
x = nsimplex_sampling(m, 1)[0]
vertices = np.random.random_sample((m + 1, m))
phi = affine_map_from_unit(vertices)
x = phi(x)
p = unit_polynomial_simplex(vertices, 0)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert abs(p(x) - 1) < 1e-12
for n in [2, 3]:
p = unit_polynomial_simplex(vertices, 0, n)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert np.linalg.norm(p(x) - np.ones(n)) < 1e-12
# Test unit polynomial expressed in the degree 2 polynomial basis
r = 2
for m in [1, 2, 3]:
x = nsimplex_sampling(m, 1)[0]
vertices = np.random.random_sample((m + 1, m))
phi = affine_map_from_unit(vertices)
x = phi(x)
p = unit_polynomial_simplex(vertices, r, 1)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert p.degree() == r
assert abs(p(x) - 1) < 1e-12
for n in [2, 3]:
p = unit_polynomial_simplex(vertices, r, n)
assert p.basis() == unique_identifier_bernstein_basis_simplex(vertices)
assert p.degree() == r
assert np.linalg.norm(p(x) - np.ones(n)) < 1e-12
if __name__ == '__main__':
pytest.main(sys.argv)
| 42.279614
| 118
| 0.519531
| 4,283
| 30,695
| 3.590007
| 0.042727
| 0.036681
| 0.039802
| 0.040583
| 0.900234
| 0.865895
| 0.832401
| 0.795851
| 0.775494
| 0.743366
| 0
| 0.066029
| 0.325525
| 30,695
| 725
| 119
| 42.337931
| 0.676665
| 0.047369
| 0
| 0.703333
| 0
| 0.028333
| 0.043035
| 0
| 0
| 0
| 0
| 0
| 0.123333
| 1
| 0.066667
| false
| 0
| 0.016667
| 0.028333
| 0.115
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
f98b10cf71c867854af6bc4d01a537dcaf468f75
| 3,783
|
py
|
Python
|
src/causal2020/observables/simperturb.py
|
hassanobeid1994/tr_b_causal_2020
|
1ffaeb7dcefccf5e1f24c459e9a2f140b2a052a5
|
[
"MIT"
] | null | null | null |
src/causal2020/observables/simperturb.py
|
hassanobeid1994/tr_b_causal_2020
|
1ffaeb7dcefccf5e1f24c459e9a2f140b2a052a5
|
[
"MIT"
] | 89
|
2020-02-10T02:52:11.000Z
|
2020-06-23T03:50:27.000Z
|
src/causal2020/observables/simperturb.py
|
hassan-obeid/tr_b_causal_2020
|
1ffaeb7dcefccf5e1f24c459e9a2f140b2a052a5
|
[
"MIT"
] | null | null | null |
# Estimated Probabilities
# Perturb Variables based on Assumed Causal Graph
# Drive Alone
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 1, "total_travel_time"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 1, "total_travel_distance"
],
fitted_reg=fitted_reg_da["total_travel_time_on_total_travel_distance"],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 1].shape[
0
],
)
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 1, "total_travel_cost"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 1, "total_travel_distance"
],
fitted_reg=fitted_reg_da["total_travel_cost_on_total_travel_distance"],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 1].shape[
0
],
)
# Shared-2
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 2, "total_travel_time"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 2, "total_travel_distance"
],
fitted_reg=fitted_reg_shared_2[
"total_travel_time_on_total_travel_distance"
],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 2].shape[
0
],
)
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 2, "total_travel_cost"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 2, "total_travel_distance"
],
fitted_reg=fitted_reg_shared_2[
"total_travel_cost_on_total_travel_distance"
],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 2].shape[
0
],
)
# Shared 3+
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 3, "total_travel_time"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 3, "total_travel_distance"
],
fitted_reg=fitted_reg_shared_3p[
"total_travel_time_on_total_travel_distance"
],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 3].shape[
0
],
)
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 3, "total_travel_cost"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 3, "total_travel_distance"
],
fitted_reg=fitted_reg_shared_3p[
"total_travel_cost_on_total_travel_distance"
],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 3].shape[
0
],
)
# Walk-Transit-Walk
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 4, "total_travel_cost"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 4, "total_travel_time"
],
fitted_reg=fitted_reg_wtw["total_travel_cost_on_total_travel_time"],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 4].shape[
0
],
)
# Drive-Transit-Walk
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 5, "total_travel_cost"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 5, "total_travel_time"
],
fitted_reg=fitted_reg_dtw["total_travel_cost_on_total_travel_time"],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 5].shape[
0
],
)
# Walk-Transit-Drive
long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 6, "total_travel_cost"
] = reg.lin_reg_pred(
X=long_sim_data_causal.loc[
long_sim_data_causal["mode_id"] == 6, "total_travel_time"
],
fitted_reg=fitted_reg_wtd["total_travel_cost_on_total_travel_time"],
size=long_sim_data_causal.loc[long_sim_data_causal["mode_id"] == 6].shape[
0
],
)
#
| 30.264
| 78
| 0.707639
| 586
| 3,783
| 4.008532
| 0.075085
| 0.16092
| 0.252874
| 0.390805
| 0.940826
| 0.940826
| 0.940826
| 0.912729
| 0.912729
| 0.912729
| 0
| 0.013359
| 0.168914
| 3,783
| 124
| 79
| 30.508065
| 0.733779
| 0.041766
| 0
| 0.64486
| 0
| 0
| 0.244813
| 0.1361
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 1
| 1
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
|
0
| 9
|
fb05ad1565bfcb2ff802d167a1e4c3889decf6e7
| 109
|
py
|
Python
|
coinbase_pro/__init__.py
|
fakecoinbase/TerrellVslashpython-coinbasepro-api
|
08865681e3266330bb41c5c34fa9f624bfa624cd
|
[
"MIT"
] | null | null | null |
coinbase_pro/__init__.py
|
fakecoinbase/TerrellVslashpython-coinbasepro-api
|
08865681e3266330bb41c5c34fa9f624bfa624cd
|
[
"MIT"
] | null | null | null |
coinbase_pro/__init__.py
|
fakecoinbase/TerrellVslashpython-coinbasepro-api
|
08865681e3266330bb41c5c34fa9f624bfa624cd
|
[
"MIT"
] | null | null | null |
from coinbase_pro.api_public import CBProPublic
from coinbase_pro.api_authenticated import CBProAuthenticated
| 54.5
| 61
| 0.917431
| 14
| 109
| 6.857143
| 0.642857
| 0.25
| 0.3125
| 0.375
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.06422
| 109
| 2
| 61
| 54.5
| 0.941176
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 8
|
fb17ed8604e4823de7f53f4d93687348f8e21502
| 65
|
py
|
Python
|
jiant/utils/testing/utils.py
|
yzpang/jiant
|
192d6b525c06f33010b59044df40cb86bbfba4ea
|
[
"MIT"
] | 1,108
|
2019-04-22T09:19:19.000Z
|
2022-03-31T13:23:51.000Z
|
jiant/utils/testing/utils.py
|
eric11eca/inference-information-probing
|
f55156201992cb024edf112e06dd2d7fe09381e4
|
[
"MIT"
] | 737
|
2019-04-22T14:30:36.000Z
|
2022-03-31T22:22:17.000Z
|
jiant/utils/testing/utils.py
|
eric11eca/inference-information-probing
|
f55156201992cb024edf112e06dd2d7fe09381e4
|
[
"MIT"
] | 273
|
2019-04-23T01:42:11.000Z
|
2022-03-25T15:59:38.000Z
|
import sys
def is_pytest():
return "pytest" in sys.modules
| 10.833333
| 34
| 0.692308
| 10
| 65
| 4.4
| 0.8
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.215385
| 65
| 5
| 35
| 13
| 0.862745
| 0
| 0
| 0
| 0
| 0
| 0.092308
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.333333
| true
| 0
| 0.333333
| 0.333333
| 1
| 0
| 1
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 1
| 1
| 1
| 0
|
0
| 7
|
9524c5d6db466f7276adceccf7a882ffc0d03dbb
| 5,461
|
py
|
Python
|
src/vigorish/data/team_data.py
|
a-luna/vigorish
|
6cede5ced76c7d2c9ad0aacdbd2b18c2f1ee4ee6
|
[
"MIT"
] | 2
|
2021-07-15T13:53:33.000Z
|
2021-07-25T17:03:29.000Z
|
src/vigorish/data/team_data.py
|
a-luna/vigorish
|
6cede5ced76c7d2c9ad0aacdbd2b18c2f1ee4ee6
|
[
"MIT"
] | 650
|
2019-05-18T07:00:12.000Z
|
2022-01-21T19:38:55.000Z
|
src/vigorish/data/team_data.py
|
a-luna/vigorish
|
6cede5ced76c7d2c9ad0aacdbd2b18c2f1ee4ee6
|
[
"MIT"
] | 2
|
2020-03-28T21:01:31.000Z
|
2022-01-06T05:16:11.000Z
|
from functools import cached_property
from typing import Dict, List
from sqlalchemy.engine import Engine
from sqlalchemy.orm import Session
import vigorish.database as db
from vigorish.app import Vigorish
from vigorish.data.metrics import BatStatsMetrics, PitchStatsMetrics
from vigorish.data.scraped_data import ScrapedData
from vigorish.enums import DefensePosition
class TeamData:
def __init__(self, app: Vigorish, team_id_bbref: str, year: int):
self.app = app
self.team_id_bbref = team_id_bbref
self.year = year
self.db_engine: Engine = self.app.db_engine
self.db_session: Session = self.app.db_session
self.scraped_data: ScrapedData = self.app.scraped_data
self.team: db.Team = db.Team.find_by_team_id_and_year(self.db_session, self.team_id_bbref, self.year)
@cached_property
def pitch_stats(self) -> PitchStatsMetrics:
return self.scraped_data.get_pitch_stats_for_team(self.team_id_bbref, self.year)
@cached_property
def pitch_stats_by_year(self) -> Dict[int, PitchStatsMetrics]:
return self.scraped_data.get_pitch_stats_by_year_for_team(self.team_id_bbref)
@cached_property
def pitch_stats_by_player(self) -> List[PitchStatsMetrics]:
return self.scraped_data.get_pitch_stats_by_player_for_team(self.team_id_bbref, self.year)
@cached_property
def pitch_stats_for_sp(self) -> PitchStatsMetrics:
return self.scraped_data.get_pitch_stats_for_sp_for_team(self.team_id_bbref, self.year)
@cached_property
def pitch_stats_for_sp_by_year(self) -> Dict[int, PitchStatsMetrics]:
return self.scraped_data.get_pitch_stats_for_sp_by_year_for_team(self.team_id_bbref)
@cached_property
def pitch_stats_for_sp_by_player(self) -> List[PitchStatsMetrics]:
return self.scraped_data.get_pitch_stats_for_sp_by_player_for_team(self.team_id_bbref, self.year)
@cached_property
def pitch_stats_for_rp(self) -> PitchStatsMetrics:
return self.scraped_data.get_pitch_stats_for_rp_for_team(self.team_id_bbref, self.year)
@cached_property
def pitch_stats_for_rp_by_year(self) -> Dict[int, PitchStatsMetrics]:
return self.scraped_data.get_pitch_stats_for_rp_by_year_for_team(self.team_id_bbref)
@cached_property
def pitch_stats_for_rp_by_player(self) -> List[PitchStatsMetrics]:
return self.scraped_data.get_pitch_stats_for_rp_by_player_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats(self) -> BatStatsMetrics:
return self.scraped_data.get_bat_stats_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats_by_year(self) -> Dict[int, BatStatsMetrics]:
return self.scraped_data.get_bat_stats_by_year_for_team(self.team_id_bbref)
@cached_property
def bat_stats_by_player(self) -> List[BatStatsMetrics]:
return self.scraped_data.get_bat_stats_by_player_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats_by_lineup_spot(self) -> List[BatStatsMetrics]:
return self.scraped_data.get_bat_stats_by_lineup_spot_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats_by_defpos(self) -> List[BatStatsMetrics]:
return self.scraped_data.get_bat_stats_by_defpos_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats_for_starters(self) -> BatStatsMetrics:
return self.scraped_data.get_bat_stats_for_starters_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats_for_starters_by_year(self) -> Dict[int, BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_starters_by_year_for_team(self.team_id_bbref)
@cached_property
def bat_stats_for_starters_by_player(self) -> List[BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_starters_by_player_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats_for_subs(self) -> BatStatsMetrics:
return self.scraped_data.get_bat_stats_for_subs_for_team(self.team_id_bbref, self.year)
@cached_property
def bat_stats_for_subs_by_year(self) -> Dict[int, BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_subs_by_year_for_team(self.team_id_bbref)
@cached_property
def bat_stats_for_subs_by_player(self) -> List[BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_subs_by_player_for_team(self.team_id_bbref, self.year)
def get_bat_stats_for_lineup_spot_by_year(self, bat_order_list: List[int]) -> Dict[int, BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_lineup_spot_by_year_for_team(bat_order_list, self.team_id_bbref)
def get_bat_stats_for_lineup_spot_by_player(self, bat_order_list: List[int]) -> List[BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_lineup_spot_by_player_for_team(
bat_order_list, self.team_id_bbref, self.year
)
def get_bat_stats_for_defpos_by_year(self, def_position_list: List[DefensePosition]) -> Dict[int, BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_defpos_by_year_for_team(def_position_list, self.team_id_bbref)
def get_bat_stats_for_defpos_by_player(self, def_position_list: List[DefensePosition]) -> List[BatStatsMetrics]:
return self.scraped_data.get_bat_stats_for_defpos_by_player_for_team(
def_position_list, self.team_id_bbref, self.year
)
| 45.890756
| 119
| 0.782824
| 828
| 5,461
| 4.679952
| 0.066425
| 0.070194
| 0.079484
| 0.100645
| 0.850581
| 0.840516
| 0.809032
| 0.797677
| 0.782194
| 0.759226
| 0
| 0
| 0.141915
| 5,461
| 118
| 120
| 46.279661
| 0.826931
| 0
| 0
| 0.222222
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.277778
| false
| 0
| 0.1
| 0.266667
| 0.655556
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 1
| 1
| 0
|
0
| 9
|
1f94898196d96a023b8848ff9c80f0039d09e458
| 25,489
|
py
|
Python
|
tests/test_created__more_statistics.py
|
ironmussa/Optimus
|
fbaea6e0957f0bc016280a85ff021904faac20c5
|
[
"Apache-2.0"
] | 1,045
|
2017-07-17T17:59:46.000Z
|
2021-06-15T07:06:48.000Z
|
tests/test_created__more_statistics.py
|
ironmussa/Optimus
|
fbaea6e0957f0bc016280a85ff021904faac20c5
|
[
"Apache-2.0"
] | 955
|
2017-07-14T15:47:58.000Z
|
2021-05-27T14:16:24.000Z
|
tests/test_created__more_statistics.py
|
ironmussa/Optimus
|
fbaea6e0957f0bc016280a85ff021904faac20c5
|
[
"Apache-2.0"
] | 226
|
2017-08-04T20:41:33.000Z
|
2021-05-21T08:28:33.000Z
|
import datetime
import numpy as np
from optimus.tests.base import TestBase
from optimus.helpers.json import json_encoding
from optimus.helpers.functions import deep_sort, df_dicts_equal, results_equal
def Timestamp(t):
return datetime.datetime.strptime(t, "%Y-%m-%d %H:%M:%S")
NaT = np.datetime64('NaT')
nan = float("nan")
inf = float("inf")
class TestMoreStatisticsPandas(TestBase):
config = {'engine': 'pandas'}
dict = {('id', 'int64'): [1, 2, 3, 4, 5, 6, 7, 8, 9, 10], ('name', 'object'): ['pants', 'shoes', 'shirt', 'pants', 'pants', 'shoes', 'pants', 'pants', 'shirt', 'pants'], ('code', 'object'): ['L15', 'SH', 'RG30', 'J10', 'JG15', 'B', 'JG20', 'L20', 'FT50', 'JG15'], ('price', 'float64'): [173.47, 69.99, 30.0, 34.99, 132.99, 57.99, 179.99, 95.0, 50.0, 169.99], ('discount', 'object'): ['0', '15%', '5%', '0', '0', '20%', '15%', '0', '0', '0']}
maxDiff = None
def test_cols_boxplot_all(self):
df = self.df.copy()
result = df.cols.boxplot(cols='*')
expected = {'id': {'mean': {'id': 5.5, 'name': nan, 'code': nan, 'price': 99.441, 'discount': 0.0}, 'median': 5.5, 'q1': 3.25, 'q3': 7.75, 'whisker_low': -3.5, 'whisker_high': 14.5, 'fliers': [], 'label': 'id'}, 'name': nan, 'code': nan, 'price': {'mean': {'id': 5.5, 'name': nan, 'code': nan, 'price': 99.441, 'discount': 0.0}, 'median': 82.495, 'q1': 51.9975, 'q3': 160.74, 'whisker_low': -111.11625000000001, 'whisker_high': 323.85375, 'fliers': [], 'label': 'price'}, 'discount': {'mean': {'id': 5.5, 'name': nan, 'code': nan, 'price': 99.441, 'discount': 0.0}, 'median': 0.0, 'q1': 0.0, 'q3': 0.0, 'whisker_low': 0.0, 'whisker_high': 0.0, 'fliers': [], 'label': 'discount'}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_boxplot_multiple(self):
df = self.df.copy()
result = df.cols.boxplot(cols=['id', 'code', 'discount'])
expected = {'id': {'mean': {'id': 5.5, 'code': nan, 'discount': 0.0}, 'median': 5.5, 'q1': 3.25, 'q3': 7.75, 'whisker_low': -3.5, 'whisker_high': 14.5, 'fliers': [], 'label': 'id'}, 'code': nan, 'discount': {'mean': {'id': 5.5, 'code': nan, 'discount': 0.0}, 'median': 0.0, 'q1': 0.0, 'q3': 0.0, 'whisker_low': 0.0, 'whisker_high': 0.0, 'fliers': [], 'label': 'discount'}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_boxplot_numeric(self):
df = self.df.copy()
result = df.cols.boxplot(cols='price')
expected = {'price': {'mean': 99.441, 'median': 82.495, 'q1': 51.9975, 'q3': 160.74, 'whisker_low': -111.11625000000001, 'whisker_high': 323.85375, 'fliers': [], 'label': 'price'}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_all_kendall(self):
df = self.df.copy()
result = df.cols.correlation('*', 'kendall')
expected = {'id': {'id': 1.0, 'price': 0.1111111111111111}, 'price': {'id': 0.1111111111111111, 'price': 1.0}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_all_pearson(self):
df = self.df.copy()
result = df.cols.correlation('*', 'pearson')
expected = {'id': {'id': 1.0, 'price': 0.15785706335886504}, 'price': {'id': 0.15785706335886504, 'price': 1.0}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_all_spearman(self):
df = self.df.copy()
result = df.cols.correlation('*', 'spearman')
expected = {'id': {'id': 1.0, 'price': 0.1393939393939394}, 'price': {'id': 0.1393939393939394, 'price': 1.0}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_multiple_kendall(self):
df = self.df.copy()
result = df.cols.correlation(['id', 'price'], 'kendall')
expected = 0.1111111111111111
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_multiple_pearson(self):
df = self.df.copy()
result = df.cols.correlation(['id', 'price'], 'pearson')
expected = 0.15785706335886504
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_multiple_spearman(self):
df = self.df.copy()
result = df.cols.correlation(['id', 'price'], 'spearman')
expected = 0.1393939393939394
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_numeric_kendall(self):
df = self.df.copy()
result = df.cols.correlation('price', 'kendall')
expected = {'price': {'price': 1.0}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_numeric_pearson(self):
df = self.df.copy()
result = df.cols.correlation('price', 'pearson')
expected = {'price': {'price': 1.0}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_correlation_numeric_spearman(self):
df = self.df.copy()
result = df.cols.correlation('price', 'spearman')
expected = {'price': {'price': 1.0}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_count_uniques_all(self):
df = self.df.copy()
result = df.cols.count_uniques(cols='*')
expected = {'id': 10, 'name': 3, 'code': 9, 'price': 10, 'discount': 4}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_count_uniques_multiple(self):
df = self.df.copy()
result = df.cols.count_uniques(cols=['id', 'code', 'discount'], estimate=False)
expected = {'id': 10, 'code': 9, 'discount': 4}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_count_uniques_numeric(self):
df = self.df.copy()
result = df.cols.count_uniques(cols='price', estimate=True)
expected = 10
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_count_zeros_all(self):
df = self.df.copy()
result = df.cols.count_zeros(cols='*')
expected = {'id': 0, 'name': 0, 'code': 0, 'price': 0, 'discount': 0}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_count_zeros_multiple(self):
df = self.df.copy()
result = df.cols.count_zeros(cols=['id', 'code', 'discount'])
expected = {'id': 0, 'code': 0, 'discount': 0}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_count_zeros_numeric(self):
df = self.df.copy()
result = df.cols.count_zeros(cols='price')
expected = 0
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_frequency_all(self):
df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True)
result = df.cols.frequency(cols='*', n=10, count_uniques=True)
expected = {'frequency': {'vf': {'values': [{'value': 9.9, 'count': 4}, {'value': 3.3000000000000003, 'count': 3}, {'value': 0.0, 'count': 2}, {'value': 1.1, 'count': 2}, {'value': 22.0, 'count': 2}, {'value': 4.4, 'count': 1}], 'count_uniques': 6}, 'vs': {'values': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}, {'value': 'STR4', 'count': 1}], 'count_uniques': 6}, 'values': {'values': [{'value': 9, 'count': 4}, {'value': 3, 'count': 3}, {'value': 0, 'count': 2}, {'value': 1, 'count': 2}, {'value': 20, 'count': 2}, {'value': 4, 'count': 1}], 'count_uniques': 6}, 'o': {'values': [{'value': 1, 'count': 5}, {'value': 3, 'count': 3}, {'value': 9, 'count': 1}, {'value': [9], 'count': 1}, {'value': 'nine', 'count': 1}, {'value': {'nine': 9}, 'count': 1}], 'count_uniques': 6}}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_frequency_multiple(self):
df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True)
result = df.cols.frequency(cols=['vs', 'vf'], n=6, percentage=True)
expected = {'frequency': {'vs': {'values': [{'value': 'STR9', 'count': 4, 'percentage': 28.57}, {'value': 'STR3', 'count': 3, 'percentage': 21.43}, {'value': 'STR0', 'count': 2, 'percentage': 14.29}, {'value': 'STR1', 'count': 2, 'percentage': 14.29}, {'value': 'STR20', 'count': 2, 'percentage': 14.29}, {'value': 'STR4', 'count': 1, 'percentage': 7.14}]}, 'vf': {'values': [{'value': 9.9, 'count': 4, 'percentage': 28.57}, {'value': 3.3000000000000003, 'count': 3, 'percentage': 21.43}, {'value': 0.0, 'count': 2, 'percentage': 14.29}, {'value': 1.1, 'count': 2, 'percentage': 14.29}, {'value': 22.0, 'count': 2, 'percentage': 14.29}, {'value': 4.4, 'count': 1, 'percentage': 7.14}]}}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_frequency_numeric(self):
df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True)
result = df.cols.frequency(cols='values', n=4, percentage=True, total_rows=3)
expected = {'frequency': {'values': {'values': [{'value': 9, 'count': 4, 'percentage': 28.57}, {'value': 3, 'count': 3, 'percentage': 21.43}, {'value': 1, 'count': 2, 'percentage': 14.29}, {'value': 20, 'count': 2, 'percentage': 14.29}]}}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_frequency_string(self):
df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True)
result = df.cols.frequency(cols='vs', n=5, percentage=False)
expected = {'frequency': {'vs': {'values': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}]}}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_heatmap_numeric_numeric(self):
df = self.df.copy()
result = df.cols.heatmap(col_x='discount', col_y='price', bins_x=5, bins_y=10)
expected = {'x': {'name': 'discount', 'edges': [-0.5, 0.5]}, 'y': {'name': 'price', 'edges': [34.99, 173.47]}, 'values': [[0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 1.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 2.0, 0.0, 0.0]]}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_heatmap_numeric_string(self):
df = self.df.copy()
result = df.cols.heatmap(col_x='price', col_y='code', bins_x=3, bins_y=1)
expected = {'x': {'name': 'price', 'edges': [0.0, 1.0]}, 'y': {'name': 'code', 'edges': [0.0, 1.0]}, 'values': [[0.0, 0.0, 0.0]]}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_heatmap_string_numeric(self):
df = self.df.copy()
result = df.cols.heatmap(col_x='name', col_y='id', bins_x=7, bins_y=10)
expected = {'x': {'name': 'name', 'edges': [0.0, 1.0]}, 'y': {'name': 'id', 'edges': [0.0, 1.0]}, 'values': [[0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0, 0.0, 0.0, 0.0]]}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_heatmap_string_string(self):
df = self.df.copy()
result = df.cols.heatmap(col_x='code', col_y='name', bins_x=4, bins_y=4)
expected = {'x': {'name': 'code', 'edges': [0.0, 1.0]}, 'y': {'name': 'name', 'edges': [0.0, 1.0]}, 'values': [[0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0], [0.0, 0.0, 0.0, 0.0]]}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_hist_all(self):
df = self.df.copy()
result = df.cols.hist(cols='*', buckets=2)
expected = {'hist': {'id': [{'lower': 1.0, 'upper': 5.5, 'count': 5}, {'lower': 5.5, 'upper': 10.0, 'count': 5}], 'price': [{'lower': 30.0, 'upper': 104.995, 'count': 6}, {'lower': 104.995, 'upper': 179.99, 'count': 4}], 'discount': [{'lower': 0.0, 'upper': 0.0, 'count': 6}]}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_hist_multiple(self):
df = self.df.copy()
result = df.cols.hist(cols=['id', 'code', 'discount'], buckets=4)
expected = {'hist': {'id': [{'lower': 1.0, 'upper': 3.25, 'count': 3}, {'lower': 3.25, 'upper': 5.5, 'count': 2}, {'lower': 5.5, 'upper': 7.75, 'count': 2}, {'lower': 7.75, 'upper': 10.0, 'count': 3}], 'discount': [{'lower': 0.0, 'upper': 0.0, 'count': 6}]}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_hist_numeric(self):
df = self.df.copy()
result = df.cols.hist(cols='price', buckets=10)
expected = {'hist': {'price': [{'lower': 30.0, 'upper': 44.999, 'count': 2}, {'lower': 44.999, 'upper': 59.998000000000005, 'count': 2}, {'lower': 59.998000000000005, 'upper': 74.997, 'count': 1}, {'lower': 74.997, 'upper': 89.99600000000001, 'count': 0}, {'lower': 89.99600000000001, 'upper': 104.995, 'count': 1}, {'lower': 104.995, 'upper': 119.994, 'count': 0}, {'lower': 119.994, 'upper': 134.993, 'count': 1}, {'lower': 134.993, 'upper': 149.99200000000002, 'count': 0}, {'lower': 149.99200000000002, 'upper': 164.991, 'count': 0}, {'lower': 164.991, 'upper': 179.99, 'count': 3}]}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_infer_type_all(self):
df = self.df.copy()
result = df.cols.infer_type(cols='*')
expected = {'id': {'data_type': 'int', 'categorical': True}, 'name': {'data_type': 'str', 'categorical': True}, 'code': {'data_type': 'str', 'categorical': True}, 'price': {'data_type': 'float', 'categorical': True}, 'discount': {'data_type': 'int', 'categorical': True}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_infer_type_multiple(self):
df = self.df.copy()
result = df.cols.infer_type(cols=['id', 'code', 'discount'])
expected = {'id': {'data_type': 'int', 'categorical': True}, 'code': {'data_type': 'str', 'categorical': True}, 'discount': {'data_type': 'int', 'categorical': True}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_infer_type_numeric(self):
df = self.df.copy()
result = df.cols.infer_type(cols='price')
expected = {'data_type': 'float', 'categorical': True}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_profile_all(self):
df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True)
result = df.cols.profile(cols='*')
expected = [{'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'float', 'categorical': True}, 'frequency': [{'value': 9.9, 'count': 4}, {'value': 3.3000000000000003, 'count': 3}, {'value': 0.0, 'count': 2}, {'value': 1.1, 'count': 2}, {'value': 22.0, 'count': 2}, {'value': 4.4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'float64'}, {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'str', 'categorical': True}, 'frequency': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}, {'value': 'STR4', 'count': 1}], 'count_uniques': 6}, 'data_type': 'object'}, {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'int', 'categorical': True}, 'frequency': [{'value': 9, 'count': 4}, {'value': 3, 'count': 3}, {'value': 0, 'count': 2}, {'value': 1, 'count': 2}, {'value': 20, 'count': 2}, {'value': 4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'int64'}, {'stats': {'match': 9, 'missing': 2, 'mismatch': 3, 'inferred_data_type': {'data_type': 'int', 'categorical': True}, 'frequency': [{'value': 1, 'count': 5}, {'value': 3, 'count': 3}, {'value': 9, 'count': 1}, {'value': [9], 'count': 1}, {'value': 'nine', 'count': 1}, {'value': {'nine': 9}, 'count': 1}], 'count_uniques': 6}, 'data_type': 'object'}]
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_profile_multiple(self):
df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True)
result = df.cols.profile(cols=['vs', 'vf'], bins=8, flush=False)
expected = [{'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'str', 'categorical': True}, 'frequency': [{'value': 'STR9', 'count': 4}, {'value': 'STR3', 'count': 3}, {'value': 'STR0', 'count': 2}, {'value': 'STR1', 'count': 2}, {'value': 'STR20', 'count': 2}, {'value': 'STR4', 'count': 1}], 'count_uniques': 6}, 'data_type': 'object'}, {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'float', 'categorical': True}, 'frequency': [{'value': 9.9, 'count': 4}, {'value': 3.3000000000000003, 'count': 3}, {'value': 0.0, 'count': 2}, {'value': 1.1, 'count': 2}, {'value': 22.0, 'count': 2}, {'value': 4.4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'float64'}]
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_profile_numeric(self):
df = self.create_dataframe(data={('vf', 'float64'): [9.9, 9.9, 9.9, 9.9, 3.3000000000000003, 3.3000000000000003, 3.3000000000000003, 22.0, 22.0, 1.1, 1.1, 0.0, 0.0, 4.4], ('vs', 'object'): ['STR9', 'STR9', 'STR9', 'STR9', 'STR3', 'STR3', 'STR3', 'STR20', 'STR20', 'STR1', 'STR1', 'STR0', 'STR0', 'STR4'], ('values', 'int64'): [9, 9, 9, 9, 3, 3, 3, 20, 20, 1, 1, 0, 0, 4], ('o', 'object'): ['nine', [9], {'nine': 9}, 9, 3, 3, 3, None, None, 1, 1, 1, 1, 1]}, force_data_types=True)
result = df.cols.profile(cols='values', bins=10, flush=True)
expected = {'stats': {'match': 14, 'missing': 0, 'mismatch': 0, 'inferred_data_type': {'data_type': 'int', 'categorical': True}, 'frequency': [{'value': 9, 'count': 4}, {'value': 3, 'count': 3}, {'value': 0, 'count': 2}, {'value': 1, 'count': 2}, {'value': 20, 'count': 2}, {'value': 4, 'count': 1}], 'count_uniques': 6}, 'data_type': 'int64'}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_quality_all(self):
df = self.df.copy()
result = df.cols.quality(cols='*')
expected = {'id': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'int'}, 'name': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'str'}, 'code': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'str'}, 'price': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'float'}, 'discount': {'match': 6, 'missing': 0, 'mismatch': 4, 'inferred_data_type': 'int'}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_quality_multiple(self):
df = self.df.copy()
result = df.cols.quality(cols=['id', 'code', 'discount'], flush=False)
expected = {'id': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'int'}, 'code': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'str'}, 'discount': {'match': 6, 'missing': 0, 'mismatch': 4, 'inferred_data_type': 'int'}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_quality_numeric(self):
df = self.df.copy()
result = df.cols.quality(cols='price', flush=True)
expected = {'price': {'match': 10, 'missing': 0, 'mismatch': 0, 'inferred_data_type': 'float'}}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_unique_values_all(self):
df = self.df.copy()
result = df.cols.unique_values(cols='*')
expected = {'id': ['1', '2', '3', '4', '5', '6', '7', '8', '9', '10'], 'name': ['pants', 'shoes', 'shirt'], 'code': ['L15', 'SH', 'RG30', 'J10', 'JG15', 'B', 'JG20', 'L20', 'FT50'], 'price': ['173.47', '69.99', '30.0', '34.99', '132.99', '57.99', '179.99', '95.0', '50.0', '169.99'], 'discount': ['0', '15%', '5%', '20%']}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_unique_values_multiple(self):
df = self.df.copy()
result = df.cols.unique_values(cols=['id', 'code', 'discount'], estimate=False)
expected = {'id': ['1', '2', '3', '4', '5', '6', '7', '8', '9', '10'], 'code': ['L15', 'SH', 'RG30', 'J10', 'JG15', 'B', 'JG20', 'L20', 'FT50'], 'discount': ['0', '15%', '5%', '20%']}
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
def test_cols_unique_values_numeric(self):
df = self.df.copy()
result = df.cols.unique_values(cols='price', estimate=True)
expected = ['173.47', '69.99', '30.0', '34.99', '132.99', '57.99', '179.99', '95.0', '50.0', '169.99']
self.assertTrue(results_equal(result, expected, decimal=5, assertion=True))
class TestMoreStatisticsDask(TestMoreStatisticsPandas):
config = {'engine': 'dask', 'n_partitions': 1}
class TestMoreStatisticsPartitionDask(TestMoreStatisticsPandas):
config = {'engine': 'dask', 'n_partitions': 2}
try:
import cudf # pyright: reportMissingImports=false
except:
pass
else:
class TestMoreStatisticsCUDF(TestMoreStatisticsPandas):
config = {'engine': 'cudf'}
try:
import dask_cudf # pyright: reportMissingImports=false
except:
pass
else:
class TestMoreStatisticsDC(TestMoreStatisticsPandas):
config = {'engine': 'dask_cudf', 'n_partitions': 1}
try:
import dask_cudf # pyright: reportMissingImports=false
except:
pass
else:
class TestMoreStatisticsPartitionDC(TestMoreStatisticsPandas):
config = {'engine': 'dask_cudf', 'n_partitions': 2}
try:
import pyspark # pyright: reportMissingImports=false
except:
pass
else:
class TestMoreStatisticsSpark(TestMoreStatisticsPandas):
config = {'engine': 'spark'}
try:
import vaex # pyright: reportMissingImports=false
except:
pass
else:
class TestMoreStatisticsVaex(TestMoreStatisticsPandas):
config = {'engine': 'vaex'}
| 79.653125
| 1,433
| 0.586763
| 3,723
| 25,489
| 3.928284
| 0.060435
| 0.044308
| 0.055385
| 0.069197
| 0.852923
| 0.834872
| 0.806974
| 0.767795
| 0.745983
| 0.737915
| 0
| 0.117993
| 0.165758
| 25,489
| 319
| 1,434
| 79.902821
| 0.569789
| 0.007023
| 0
| 0.414729
| 0
| 0
| 0.213445
| 0
| 0
| 0
| 0
| 0
| 0.158915
| 1
| 0.162791
| false
| 0.01938
| 0.03876
| 0.003876
| 0.275194
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
2f11de0715eca3e251fe49c72077a957cac5b0fa
| 2,987
|
py
|
Python
|
character.py
|
timothydillan/turnaround-battle-game
|
acb5d35910386187e125fad5b612339798b3157b
|
[
"CC0-1.0"
] | null | null | null |
character.py
|
timothydillan/turnaround-battle-game
|
acb5d35910386187e125fad5b612339798b3157b
|
[
"CC0-1.0"
] | null | null | null |
character.py
|
timothydillan/turnaround-battle-game
|
acb5d35910386187e125fad5b612339798b3157b
|
[
"CC0-1.0"
] | 2
|
2020-03-01T06:17:47.000Z
|
2020-03-03T02:33:48.000Z
|
# Initialize libraries needed for the class.
# All things taken from the internet are put in referenceList.txt
from random import randint
import self
from setup import *
# Declare a warrior class for the units.
class Warrior:
# Initialize attributes of a Warrior
def __init__(self, name, health, attack, defend, experience, rank):
self.name = name
self.health = health
self.attack = attack
self.defend = defend
self.experience = experience
self.rank = rank
self.job = "Warrior"
def create(self):
# A function to create a warrior with predefined values. We'll change it later on setup.py.
warriorChar = Warrior("Alice", 100, randint(10, 20), randint(5, 10), 0, 1,)
return warriorChar
def checkLevelUp(self):
# A function that automatically levels up the current unit, and resets the xp if xp is 100.
if self.experience > 99:
self.rank += 1
self.attack = round(self.attack * 1.05, 2)
self.defend = round(self.defend * 1.05, 2)
self.experience = 0
def checkDie(self):
# A function that checks if a player is dead.
if self.health <= 0:
# if the player has a hp below or is 0
# then set all attributes to 0, except for defend.
# We set defend to a large value, so that the AI does not attack a dead player.
self.health = 0
self.attack = 0
self.defend = 1000000
self.experience = 0
# Delcare a Tanker class for the units.
class Tanker:
# Initialize attributes of a Warrior
def __init__(self, name, health, attack, defend, experience, rank):
self.name = name
self.health = health
self.attack = attack
self.defend = defend
self.experience = experience
self.rank = rank
self.job = "Tanker"
def create(self):
# A function to create a warrior with predefined values. We'll change it later on setup.py.
tankerChar = Tanker("Bob", 100, randint(5, 10), randint(10, 20), 0, 1,)
return tankerChar
def checkLevelUp(self):
# A function that automatically levels up the current unit, and resets the xp if xp is 100.
if self.experience > 99:
self.rank += 1
self.attack = round(self.attack * 1.05, 2)
self.defend = round(self.defend * 1.05, 2)
self.experience = 0
def checkDie(self):
# A function that checks if a player is dead.
if self.health <= 0:
# if the player has a hp below or is 0
# then set all attributes to 0, except for defend.
# We set defend to a large value, so that the AI does not attack a dead player.
self.health = 0
self.attack = 0
self.defend = 1000000
self.experience = 0
| 38.294872
| 100
| 0.588216
| 402
| 2,987
| 4.350746
| 0.238806
| 0.04574
| 0.044597
| 0.038879
| 0.81761
| 0.793596
| 0.793596
| 0.793596
| 0.793596
| 0.793596
| 0
| 0.040445
| 0.337797
| 2,987
| 77
| 101
| 38.792208
| 0.843782
| 0.344493
| 0
| 0.784314
| 0
| 0
| 0.011278
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.156863
| false
| 0
| 0.058824
| 0
| 0.294118
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
2f4c18fc337a32422fb81d37fd02223c8edff190
| 3,359
|
py
|
Python
|
test/test_macro/internal/test_alias_all.py
|
NikkaZ/dbtvault_spark
|
383723cd2a35a0bc7b82fd4e77fb1eda0f68cb07
|
[
"Apache-2.0"
] | null | null | null |
test/test_macro/internal/test_alias_all.py
|
NikkaZ/dbtvault_spark
|
383723cd2a35a0bc7b82fd4e77fb1eda0f68cb07
|
[
"Apache-2.0"
] | null | null | null |
test/test_macro/internal/test_alias_all.py
|
NikkaZ/dbtvault_spark
|
383723cd2a35a0bc7b82fd4e77fb1eda0f68cb07
|
[
"Apache-2.0"
] | null | null | null |
import pytest
from test import dbtvault_harness_utils
macro_name = "alias_all"
@pytest.mark.macro
def test_alias_all_correctly_generates_sql_for_full_alias_list_with_prefix(request, generate_model):
var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"},
{"source_column": "ORDER_HASHDIFF", "alias": "HASHDIFF"},
{"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}],
'prefix': 'c'}
generate_model()
dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name],
args=var_dict)
actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name)
expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request)
assert dbtvault_harness_utils.is_successful_run(dbt_logs)
assert actual_sql == expected_sql
@pytest.mark.macro
def test_alias_all_correctly_generates_sql_for_partial_alias_list_with_prefix(request, generate_model):
var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"},
"ORDER_HASHDIFF",
{"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}],
'prefix': 'c'}
generate_model()
dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name],
args=var_dict)
actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name)
expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request)
assert dbtvault_harness_utils.is_successful_run(dbt_logs)
assert actual_sql == expected_sql
@pytest.mark.macro
def test_alias_all_correctly_generates_sql_for_full_alias_list_without_prefix(request, generate_model):
var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"},
{"source_column": "ORDER_HASHDIFF", "alias": "HASHDIFF"},
{"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}]}
generate_model()
dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name],
args=var_dict)
actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name)
expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request)
assert dbtvault_harness_utils.is_successful_run(dbt_logs)
assert actual_sql == expected_sql
@pytest.mark.macro
def test_alias_all_correctly_generates_sql_for_partial_alias_list_without_prefix(request, generate_model):
var_dict = {'columns': [{"source_column": "CUSTOMER_HASHDIFF", "alias": "HASHDIFF"},
"ORDER_HASHDIFF",
{"source_column": "BOOKING_HASHDIFF", "alias": "HASHDIFF"}]}
generate_model()
dbt_logs = dbtvault_harness_utils.run_dbt_models(model_names=[request.node.name],
args=var_dict)
actual_sql = dbtvault_harness_utils.retrieve_compiled_model(request.node.name)
expected_sql = dbtvault_harness_utils.retrieve_expected_sql(request)
assert dbtvault_harness_utils.is_successful_run(dbt_logs)
assert actual_sql == expected_sql
| 41.9875
| 106
| 0.676689
| 376
| 3,359
| 5.571809
| 0.132979
| 0.121718
| 0.162291
| 0.087828
| 0.969928
| 0.969928
| 0.969928
| 0.969928
| 0.969928
| 0.969928
| 0
| 0
| 0.225365
| 3,359
| 79
| 107
| 42.518987
| 0.80515
| 0
| 0
| 0.867925
| 1
| 0
| 0.148556
| 0
| 0
| 0
| 0
| 0
| 0.150943
| 1
| 0.075472
| false
| 0
| 0.037736
| 0
| 0.113208
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
2f829e477db4114b1fc4605bf179117123c1a1f5
| 154
|
py
|
Python
|
tests/apps/blazewebtestapp2/components/tests/tasks/init_db.py
|
blazelibs/blazeweb
|
b120a6a2e38c8b53da2b73443ff242e2d1438053
|
[
"BSD-3-Clause"
] | null | null | null |
tests/apps/blazewebtestapp2/components/tests/tasks/init_db.py
|
blazelibs/blazeweb
|
b120a6a2e38c8b53da2b73443ff242e2d1438053
|
[
"BSD-3-Clause"
] | 6
|
2016-11-01T18:42:34.000Z
|
2020-11-16T16:52:14.000Z
|
tests/apps/blazewebtestapp2/components/tests/tasks/init_db.py
|
blazelibs/blazeweb
|
b120a6a2e38c8b53da2b73443ff242e2d1438053
|
[
"BSD-3-Clause"
] | 1
|
2020-01-22T18:20:46.000Z
|
2020-01-22T18:20:46.000Z
|
loc = 'blazewebtestapp2.components.tests.tasks.init_db'
loctoo = 'blazewebtestapp2.components.tests.tasks.init_db'
def action_001():
return loctoo
| 19.25
| 58
| 0.779221
| 19
| 154
| 6.157895
| 0.631579
| 0.444444
| 0.529915
| 0.615385
| 0.717949
| 0.717949
| 0
| 0
| 0
| 0
| 0
| 0.036496
| 0.11039
| 154
| 7
| 59
| 22
| 0.817518
| 0
| 0
| 0
| 0
| 0
| 0.614379
| 0.614379
| 0
| 0
| 0
| 0
| 0
| 1
| 0.25
| false
| 0
| 0
| 0.25
| 0.5
| 0
| 1
| 0
| 0
| null | 1
| 1
| 1
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 1
| 0
| 0
|
0
| 10
|
c8319920f118ade000c880235376e6e50635beee
| 59,012
|
py
|
Python
|
nova/tests/unit/cmd/test_idmapshift.py
|
bopopescu/nova-token
|
ec98f69dea7b3e2b9013b27fd55a2c1a1ac6bfb2
|
[
"Apache-2.0"
] | null | null | null |
nova/tests/unit/cmd/test_idmapshift.py
|
bopopescu/nova-token
|
ec98f69dea7b3e2b9013b27fd55a2c1a1ac6bfb2
|
[
"Apache-2.0"
] | null | null | null |
nova/tests/unit/cmd/test_idmapshift.py
|
bopopescu/nova-token
|
ec98f69dea7b3e2b9013b27fd55a2c1a1ac6bfb2
|
[
"Apache-2.0"
] | 2
|
2017-07-20T17:31:34.000Z
|
2020-07-24T02:42:19.000Z
|
begin_unit
comment|'# Copyright 2014 Rackspace, Andrew Melton'
nl|'\n'
comment|'#'
nl|'\n'
comment|'# Licensed under the Apache License, Version 2.0 (the "License");'
nl|'\n'
comment|'# you may not use this file except in compliance with the License.'
nl|'\n'
comment|'# You may obtain a copy of the License at'
nl|'\n'
comment|'#'
nl|'\n'
comment|'# http://www.apache.org/licenses/LICENSE-2.0'
nl|'\n'
comment|'#'
nl|'\n'
comment|'# Unless required by applicable law or agreed to in writing, software'
nl|'\n'
comment|'# distributed under the License is distributed on an "AS IS" BASIS,'
nl|'\n'
comment|'# WITHOUT WARRANTIES OR CONDITIONS OF ANY KIND, either express or implied.'
nl|'\n'
comment|'# See the License for the specific language governing permissions and'
nl|'\n'
comment|'# limitations under the License.'
nl|'\n'
nl|'\n'
name|'import'
name|'argparse'
newline|'\n'
nl|'\n'
name|'import'
name|'mock'
newline|'\n'
nl|'\n'
name|'from'
name|'nova'
op|'.'
name|'cmd'
name|'import'
name|'idmapshift'
newline|'\n'
name|'from'
name|'nova'
name|'import'
name|'test'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|function|join_side_effect
name|'def'
name|'join_side_effect'
op|'('
name|'root'
op|','
op|'*'
name|'args'
op|')'
op|':'
newline|'\n'
indent|' '
name|'path'
op|'='
name|'root'
newline|'\n'
name|'if'
name|'root'
op|'!='
string|"'/'"
op|':'
newline|'\n'
indent|' '
name|'path'
op|'+='
string|"'/'"
newline|'\n'
dedent|''
name|'path'
op|'+='
string|"'/'"
op|'.'
name|'join'
op|'('
name|'args'
op|')'
newline|'\n'
name|'return'
name|'path'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|FakeStat
dedent|''
name|'class'
name|'FakeStat'
op|'('
name|'object'
op|')'
op|':'
newline|'\n'
DECL|member|__init__
indent|' '
name|'def'
name|'__init__'
op|'('
name|'self'
op|','
name|'uid'
op|','
name|'gid'
op|')'
op|':'
newline|'\n'
indent|' '
name|'self'
op|'.'
name|'st_uid'
op|'='
name|'uid'
newline|'\n'
name|'self'
op|'.'
name|'st_gid'
op|'='
name|'gid'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|BaseTestCase
dedent|''
dedent|''
name|'class'
name|'BaseTestCase'
op|'('
name|'test'
op|'.'
name|'NoDBTestCase'
op|')'
op|':'
newline|'\n'
DECL|member|__init__
indent|' '
name|'def'
name|'__init__'
op|'('
name|'self'
op|','
op|'*'
name|'args'
op|','
op|'**'
name|'kwargs'
op|')'
op|':'
newline|'\n'
indent|' '
name|'super'
op|'('
name|'BaseTestCase'
op|','
name|'self'
op|')'
op|'.'
name|'__init__'
op|'('
op|'*'
name|'args'
op|','
op|'**'
name|'kwargs'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'uid_maps'
op|'='
op|'['
op|'('
number|'0'
op|','
number|'10000'
op|','
number|'10'
op|')'
op|','
op|'('
number|'10'
op|','
number|'20000'
op|','
number|'1000'
op|')'
op|']'
newline|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|'='
op|'['
op|'('
number|'0'
op|','
number|'10000'
op|','
number|'10'
op|')'
op|','
op|'('
number|'10'
op|','
number|'20000'
op|','
number|'1000'
op|')'
op|']'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|FindTargetIDTestCase
dedent|''
dedent|''
name|'class'
name|'FindTargetIDTestCase'
op|'('
name|'BaseTestCase'
op|')'
op|':'
newline|'\n'
DECL|member|test_find_target_id_range_1_first
indent|' '
name|'def'
name|'test_find_target_id_range_1_first'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'0'
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'10000'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_find_target_id_inside_range_1
dedent|''
name|'def'
name|'test_find_target_id_inside_range_1'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'2'
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'10002'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_find_target_id_range_2_first
dedent|''
name|'def'
name|'test_find_target_id_range_2_first'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'10'
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'20000'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_find_target_id_inside_range_2
dedent|''
name|'def'
name|'test_find_target_id_inside_range_2'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'100'
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'20090'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_find_target_id_outside_range
dedent|''
name|'def'
name|'test_find_target_id_outside_range'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'10000'
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_find_target_id_no_mappings
dedent|''
name|'def'
name|'test_find_target_id_no_mappings'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'0'
op|','
op|'['
op|']'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_find_target_id_updates_memo
dedent|''
name|'def'
name|'test_find_target_id_updates_memo'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'memo'
op|'='
name|'dict'
op|'('
op|')'
newline|'\n'
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'0'
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'memo'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertIn'
op|'('
number|'0'
op|','
name|'memo'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'10000'
op|','
name|'memo'
op|'['
number|'0'
op|']'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_find_target_guest_id_greater_than_count
dedent|''
name|'def'
name|'test_find_target_guest_id_greater_than_count'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'uid_maps'
op|'='
op|'['
op|'('
number|'500'
op|','
number|'10000'
op|','
number|'10'
op|')'
op|']'
newline|'\n'
nl|'\n'
comment|'# Below range'
nl|'\n'
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'499'
op|','
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
comment|'# Match'
nl|'\n'
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'501'
op|','
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'10001'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
comment|'# Beyond range'
nl|'\n'
name|'actual_target'
op|'='
name|'idmapshift'
op|'.'
name|'find_target_id'
op|'('
number|'510'
op|','
name|'uid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'actual_target'
op|')'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|ShiftPathTestCase
dedent|''
dedent|''
name|'class'
name|'ShiftPathTestCase'
op|'('
name|'BaseTestCase'
op|')'
op|':'
newline|'\n'
indent|' '
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lchown'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_shift_path
name|'def'
name|'test_shift_path'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|','
name|'mock_lchown'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
newline|'\n'
name|'idmapshift'
op|'.'
name|'shift_path'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|','
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'mock_lchown'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
number|'10000'
op|','
number|'10000'
op|')'
op|']'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lchown'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_shift_path_dry_run
name|'def'
name|'test_shift_path_dry_run'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|','
name|'mock_lchown'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
newline|'\n'
name|'idmapshift'
op|'.'
name|'shift_path'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|','
name|'dict'
op|'('
op|')'
op|','
nl|'\n'
name|'dry_run'
op|'='
name|'True'
op|')'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'0'
op|','
name|'len'
op|'('
name|'mock_lchown'
op|'.'
name|'mock_calls'
op|')'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lchown'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.print_chown'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_shift_path_verbose
name|'def'
name|'test_shift_path_verbose'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|','
name|'mock_print'
op|','
name|'mock_lchown'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
newline|'\n'
name|'idmapshift'
op|'.'
name|'shift_path'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dict'
op|'('
op|')'
op|','
name|'dict'
op|'('
op|')'
op|','
nl|'\n'
name|'verbose'
op|'='
name|'True'
op|')'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'mock_print_call'
op|'='
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
number|'0'
op|','
number|'0'
op|','
number|'10000'
op|','
number|'10000'
op|')'
newline|'\n'
name|'mock_print'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock_print_call'
op|']'
op|')'
newline|'\n'
name|'mock_lchown'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
number|'10000'
op|','
number|'10000'
op|')'
op|']'
op|')'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|ShiftDirTestCase
dedent|''
dedent|''
name|'class'
name|'ShiftDirTestCase'
op|'('
name|'BaseTestCase'
op|')'
op|':'
newline|'\n'
indent|' '
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.shift_path'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_shift_dir
name|'def'
name|'test_shift_dir'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
name|'mock_shift_path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|']'
op|','
op|'['
string|"'c'"
op|','
string|"'d'"
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'shift_dir'
op|'('
string|"'/'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
nl|'\n'
name|'files'
op|'='
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|','
string|"'d'"
op|']'
newline|'\n'
name|'mock_walk'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|')'
op|']'
op|')'
newline|'\n'
name|'mock_join_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
name|'x'
op|')'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'assert_has_calls'
op|'('
name|'mock_join_calls'
op|')'
newline|'\n'
nl|'\n'
name|'args'
op|'='
op|'('
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'kwargs'
op|'='
name|'dict'
op|'('
name|'dry_run'
op|'='
name|'False'
op|','
name|'verbose'
op|'='
name|'False'
op|','
nl|'\n'
name|'uid_memo'
op|'='
name|'dict'
op|'('
op|')'
op|','
name|'gid_memo'
op|'='
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'shift_path_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
op|'*'
name|'args'
op|','
op|'**'
name|'kwargs'
op|')'
op|']'
newline|'\n'
name|'shift_path_calls'
op|'+='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|'+'
name|'x'
op|','
op|'*'
name|'args'
op|','
op|'**'
name|'kwargs'
op|')'
nl|'\n'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_shift_path'
op|'.'
name|'assert_has_calls'
op|'('
name|'shift_path_calls'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.shift_path'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_shift_dir_dry_run
name|'def'
name|'test_shift_dir_dry_run'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
name|'mock_shift_path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|']'
op|','
op|'['
string|"'c'"
op|','
string|"'d'"
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'shift_dir'
op|'('
string|"'/'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dry_run'
op|'='
name|'True'
op|')'
newline|'\n'
nl|'\n'
name|'mock_walk'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|')'
op|']'
op|')'
newline|'\n'
nl|'\n'
name|'files'
op|'='
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|','
string|"'d'"
op|']'
newline|'\n'
name|'mock_join_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
name|'x'
op|')'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'assert_has_calls'
op|'('
name|'mock_join_calls'
op|')'
newline|'\n'
nl|'\n'
name|'args'
op|'='
op|'('
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'kwargs'
op|'='
name|'dict'
op|'('
name|'dry_run'
op|'='
name|'True'
op|','
name|'verbose'
op|'='
name|'False'
op|','
nl|'\n'
name|'uid_memo'
op|'='
name|'dict'
op|'('
op|')'
op|','
name|'gid_memo'
op|'='
name|'dict'
op|'('
op|')'
op|')'
newline|'\n'
name|'shift_path_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
op|'*'
name|'args'
op|','
op|'**'
name|'kwargs'
op|')'
op|']'
newline|'\n'
name|'shift_path_calls'
op|'+='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|'+'
name|'x'
op|','
op|'*'
name|'args'
op|','
op|'**'
name|'kwargs'
op|')'
nl|'\n'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_shift_path'
op|'.'
name|'assert_has_calls'
op|'('
name|'shift_path_calls'
op|')'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|ConfirmPathTestCase
dedent|''
dedent|''
name|'class'
name|'ConfirmPathTestCase'
op|'('
name|'test'
op|'.'
name|'NoDBTestCase'
op|')'
op|':'
newline|'\n'
indent|' '
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_confirm_path
name|'def'
name|'test_confirm_path'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'uid_ranges'
op|'='
op|'['
op|'('
number|'1000'
op|','
number|'1999'
op|')'
op|']'
newline|'\n'
name|'gid_ranges'
op|'='
op|'['
op|'('
number|'300'
op|','
number|'399'
op|')'
op|']'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'1000'
op|','
number|'301'
op|')'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_path'
op|'('
string|"'/test/path'"
op|','
name|'uid_ranges'
op|','
name|'gid_ranges'
op|','
nl|'\n'
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertTrue'
op|'('
name|'result'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_confirm_path_nobody
name|'def'
name|'test_confirm_path_nobody'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'uid_ranges'
op|'='
op|'['
op|'('
number|'1000'
op|','
number|'1999'
op|')'
op|']'
newline|'\n'
name|'gid_ranges'
op|'='
op|'['
op|'('
number|'300'
op|','
number|'399'
op|')'
op|']'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'50000'
op|','
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_path'
op|'('
string|"'/test/path'"
op|','
name|'uid_ranges'
op|','
name|'gid_ranges'
op|','
nl|'\n'
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertTrue'
op|'('
name|'result'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_confirm_path_uid_mismatch
name|'def'
name|'test_confirm_path_uid_mismatch'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'uid_ranges'
op|'='
op|'['
op|'('
number|'1000'
op|','
number|'1999'
op|')'
op|']'
newline|'\n'
name|'gid_ranges'
op|'='
op|'['
op|'('
number|'300'
op|','
number|'399'
op|')'
op|']'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'0'
op|','
number|'301'
op|')'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_path'
op|'('
string|"'/test/path'"
op|','
name|'uid_ranges'
op|','
name|'gid_ranges'
op|','
nl|'\n'
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertFalse'
op|'('
name|'result'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_confirm_path_gid_mismatch
name|'def'
name|'test_confirm_path_gid_mismatch'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'uid_ranges'
op|'='
op|'['
op|'('
number|'1000'
op|','
number|'1999'
op|')'
op|']'
newline|'\n'
name|'gid_ranges'
op|'='
op|'['
op|'('
number|'300'
op|','
number|'399'
op|')'
op|']'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'1000'
op|','
number|'0'
op|')'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_path'
op|'('
string|"'/test/path'"
op|','
name|'uid_ranges'
op|','
name|'gid_ranges'
op|','
nl|'\n'
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertFalse'
op|'('
name|'result'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_confirm_path_uid_nobody
name|'def'
name|'test_confirm_path_uid_nobody'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'uid_ranges'
op|'='
op|'['
op|'('
number|'1000'
op|','
number|'1999'
op|')'
op|']'
newline|'\n'
name|'gid_ranges'
op|'='
op|'['
op|'('
number|'300'
op|','
number|'399'
op|')'
op|']'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'50000'
op|','
number|'301'
op|')'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_path'
op|'('
string|"'/test/path'"
op|','
name|'uid_ranges'
op|','
name|'gid_ranges'
op|','
nl|'\n'
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertTrue'
op|'('
name|'result'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
DECL|member|test_confirm_path_gid_nobody
name|'def'
name|'test_confirm_path_gid_nobody'
op|'('
name|'self'
op|','
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'uid_ranges'
op|'='
op|'['
op|'('
number|'1000'
op|','
number|'1999'
op|')'
op|']'
newline|'\n'
name|'gid_ranges'
op|'='
op|'['
op|'('
number|'300'
op|','
number|'399'
op|')'
op|']'
newline|'\n'
name|'mock_lstat'
op|'.'
name|'return_value'
op|'='
name|'FakeStat'
op|'('
number|'1000'
op|','
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_path'
op|'('
string|"'/test/path'"
op|','
name|'uid_ranges'
op|','
name|'gid_ranges'
op|','
nl|'\n'
number|'50000'
op|')'
newline|'\n'
nl|'\n'
name|'mock_lstat'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|')'
op|']'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertTrue'
op|'('
name|'result'
op|')'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|ConfirmDirTestCase
dedent|''
dedent|''
name|'class'
name|'ConfirmDirTestCase'
op|'('
name|'BaseTestCase'
op|')'
op|':'
newline|'\n'
DECL|member|setUp
indent|' '
name|'def'
name|'setUp'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'super'
op|'('
name|'ConfirmDirTestCase'
op|','
name|'self'
op|')'
op|'.'
name|'setUp'
op|'('
op|')'
newline|'\n'
name|'self'
op|'.'
name|'uid_map_ranges'
op|'='
name|'idmapshift'
op|'.'
name|'get_ranges'
op|'('
name|'self'
op|'.'
name|'uid_maps'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'gid_map_ranges'
op|'='
name|'idmapshift'
op|'.'
name|'get_ranges'
op|'('
name|'self'
op|'.'
name|'gid_maps'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_path'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_confirm_dir
name|'def'
name|'test_confirm_dir'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
name|'mock_confirm_path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|']'
op|','
op|'['
string|"'c'"
op|','
string|"'d'"
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
name|'mock_confirm_path'
op|'.'
name|'return_value'
op|'='
name|'True'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'confirm_dir'
op|'('
string|"'/'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
nl|'\n'
name|'files'
op|'='
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|','
string|"'d'"
op|']'
newline|'\n'
name|'mock_walk'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|')'
op|']'
op|')'
newline|'\n'
name|'mock_join_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
name|'x'
op|')'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'assert_has_calls'
op|'('
name|'mock_join_calls'
op|')'
newline|'\n'
nl|'\n'
name|'args'
op|'='
op|'('
name|'self'
op|'.'
name|'uid_map_ranges'
op|','
name|'self'
op|'.'
name|'gid_map_ranges'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'confirm_path_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
op|'*'
name|'args'
op|')'
op|']'
newline|'\n'
name|'confirm_path_calls'
op|'+='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|'+'
name|'x'
op|','
op|'*'
name|'args'
op|')'
nl|'\n'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_confirm_path'
op|'.'
name|'assert_has_calls'
op|'('
name|'confirm_path_calls'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_path'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_confirm_dir_short_circuit_root
name|'def'
name|'test_confirm_dir_short_circuit_root'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
nl|'\n'
name|'mock_confirm_path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|']'
op|','
op|'['
string|"'c'"
op|','
string|"'d'"
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
name|'mock_confirm_path'
op|'.'
name|'return_value'
op|'='
name|'False'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'confirm_dir'
op|'('
string|"'/'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
nl|'\n'
name|'args'
op|'='
op|'('
name|'self'
op|'.'
name|'uid_map_ranges'
op|','
name|'self'
op|'.'
name|'gid_map_ranges'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'confirm_path_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
op|'*'
name|'args'
op|')'
op|']'
newline|'\n'
name|'mock_confirm_path'
op|'.'
name|'assert_has_calls'
op|'('
name|'confirm_path_calls'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_path'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_confirm_dir_short_circuit_file
name|'def'
name|'test_confirm_dir_short_circuit_file'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
nl|'\n'
name|'mock_confirm_path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|']'
op|','
op|'['
string|"'c'"
op|','
string|"'d'"
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
DECL|function|confirm_path_side_effect
name|'def'
name|'confirm_path_side_effect'
op|'('
name|'path'
op|','
op|'*'
name|'args'
op|')'
op|':'
newline|'\n'
indent|' '
name|'if'
string|"'a'"
name|'in'
name|'path'
op|':'
newline|'\n'
indent|' '
name|'return'
name|'False'
newline|'\n'
dedent|''
name|'return'
name|'True'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_confirm_path'
op|'.'
name|'side_effect'
op|'='
name|'confirm_path_side_effect'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'confirm_dir'
op|'('
string|"'/'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
nl|'\n'
name|'mock_walk'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|')'
op|']'
op|')'
newline|'\n'
name|'mock_join'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
string|"'a'"
op|')'
op|']'
op|')'
newline|'\n'
nl|'\n'
name|'args'
op|'='
op|'('
name|'self'
op|'.'
name|'uid_map_ranges'
op|','
name|'self'
op|'.'
name|'gid_map_ranges'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'confirm_path_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
op|'*'
name|'args'
op|')'
op|','
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|'+'
string|"'a'"
op|','
op|'*'
name|'args'
op|')'
op|']'
newline|'\n'
name|'mock_confirm_path'
op|'.'
name|'assert_has_calls'
op|'('
name|'confirm_path_calls'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_path'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_confirm_dir_short_circuit_dir
name|'def'
name|'test_confirm_dir_short_circuit_dir'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
nl|'\n'
name|'mock_confirm_path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|']'
op|','
op|'['
string|"'c'"
op|','
string|"'d'"
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
DECL|function|confirm_path_side_effect
name|'def'
name|'confirm_path_side_effect'
op|'('
name|'path'
op|','
op|'*'
name|'args'
op|')'
op|':'
newline|'\n'
indent|' '
name|'if'
string|"'c'"
name|'in'
name|'path'
op|':'
newline|'\n'
indent|' '
name|'return'
name|'False'
newline|'\n'
dedent|''
name|'return'
name|'True'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_confirm_path'
op|'.'
name|'side_effect'
op|'='
name|'confirm_path_side_effect'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'confirm_dir'
op|'('
string|"'/'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
nl|'\n'
name|'files'
op|'='
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|']'
newline|'\n'
name|'mock_walk'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|')'
op|']'
op|')'
newline|'\n'
name|'mock_join_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
name|'x'
op|')'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'assert_has_calls'
op|'('
name|'mock_join_calls'
op|')'
newline|'\n'
nl|'\n'
name|'args'
op|'='
op|'('
name|'self'
op|'.'
name|'uid_map_ranges'
op|','
name|'self'
op|'.'
name|'gid_map_ranges'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'confirm_path_calls'
op|'='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|','
op|'*'
name|'args'
op|')'
op|']'
newline|'\n'
name|'confirm_path_calls'
op|'+='
op|'['
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/'"
op|'+'
name|'x'
op|','
op|'*'
name|'args'
op|')'
nl|'\n'
name|'for'
name|'x'
name|'in'
name|'files'
op|']'
newline|'\n'
name|'mock_confirm_path'
op|'.'
name|'assert_has_calls'
op|'('
name|'confirm_path_calls'
op|')'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|IDMapTypeTestCase
dedent|''
dedent|''
name|'class'
name|'IDMapTypeTestCase'
op|'('
name|'test'
op|'.'
name|'NoDBTestCase'
op|')'
op|':'
newline|'\n'
DECL|member|test_id_map_type
indent|' '
name|'def'
name|'test_id_map_type'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'id_map_type'
op|'('
string|'"1:1:1,2:2:2"'
op|')'
newline|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
op|'['
op|'('
number|'1'
op|','
number|'1'
op|','
number|'1'
op|')'
op|','
op|'('
number|'2'
op|','
number|'2'
op|','
number|'2'
op|')'
op|']'
op|','
name|'result'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_id_map_type_not_int
dedent|''
name|'def'
name|'test_id_map_type_not_int'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'self'
op|'.'
name|'assertRaises'
op|'('
name|'argparse'
op|'.'
name|'ArgumentTypeError'
op|','
name|'idmapshift'
op|'.'
name|'id_map_type'
op|','
nl|'\n'
string|'"a:1:1"'
op|')'
newline|'\n'
nl|'\n'
DECL|member|test_id_map_type_not_proper_format
dedent|''
name|'def'
name|'test_id_map_type_not_proper_format'
op|'('
name|'self'
op|')'
op|':'
newline|'\n'
indent|' '
name|'self'
op|'.'
name|'assertRaises'
op|'('
name|'argparse'
op|'.'
name|'ArgumentTypeError'
op|','
name|'idmapshift'
op|'.'
name|'id_map_type'
op|','
nl|'\n'
string|'"1:1"'
op|')'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|MainTestCase
dedent|''
dedent|''
name|'class'
name|'MainTestCase'
op|'('
name|'BaseTestCase'
op|')'
op|':'
newline|'\n'
indent|' '
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.shift_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'argparse.ArgumentParser'"
op|')'
newline|'\n'
DECL|member|test_main
name|'def'
name|'test_main'
op|'('
name|'self'
op|','
name|'mock_parser_class'
op|','
name|'mock_shift_dir'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_parser'
op|'='
name|'mock'
op|'.'
name|'MagicMock'
op|'('
op|')'
newline|'\n'
name|'mock_parser'
op|'.'
name|'parse_args'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_parser'
op|'.'
name|'idempotent'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'confirm'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'path'
op|'='
string|"'/test/path'"
newline|'\n'
name|'mock_parser'
op|'.'
name|'uid'
op|'='
name|'self'
op|'.'
name|'uid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'gid'
op|'='
name|'self'
op|'.'
name|'gid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'nobody'
op|'='
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
newline|'\n'
name|'mock_parser'
op|'.'
name|'dry_run'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'verbose'
op|'='
name|'False'
newline|'\n'
name|'mock_parser_class'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'main'
op|'('
op|')'
newline|'\n'
nl|'\n'
name|'mock_shift_dir_call'
op|'='
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
nl|'\n'
name|'dry_run'
op|'='
name|'False'
op|','
name|'verbose'
op|'='
name|'False'
op|')'
newline|'\n'
name|'mock_shift_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock_shift_dir_call'
op|']'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.shift_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'argparse.ArgumentParser'"
op|')'
newline|'\n'
DECL|member|test_main_confirm_dir_idempotent_unshifted
name|'def'
name|'test_main_confirm_dir_idempotent_unshifted'
op|'('
name|'self'
op|','
name|'mock_parser_class'
op|','
nl|'\n'
name|'mock_confirm_dir'
op|','
nl|'\n'
name|'mock_shift_dir'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_parser'
op|'='
name|'mock'
op|'.'
name|'MagicMock'
op|'('
op|')'
newline|'\n'
name|'mock_parser'
op|'.'
name|'parse_args'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_parser'
op|'.'
name|'idempotent'
op|'='
name|'True'
newline|'\n'
name|'mock_parser'
op|'.'
name|'confirm'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'path'
op|'='
string|"'/test/path'"
newline|'\n'
name|'mock_parser'
op|'.'
name|'uid'
op|'='
name|'self'
op|'.'
name|'uid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'gid'
op|'='
name|'self'
op|'.'
name|'gid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'nobody'
op|'='
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
newline|'\n'
name|'mock_parser'
op|'.'
name|'dry_run'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'verbose'
op|'='
name|'False'
newline|'\n'
name|'mock_parser_class'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'return_value'
op|'='
name|'False'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'main'
op|'('
op|')'
newline|'\n'
nl|'\n'
name|'mock_confirm_dir_call'
op|'='
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock_confirm_dir_call'
op|']'
op|')'
newline|'\n'
name|'mock_shift_dir_call'
op|'='
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
nl|'\n'
name|'dry_run'
op|'='
name|'False'
op|','
name|'verbose'
op|'='
name|'False'
op|')'
newline|'\n'
name|'mock_shift_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock_shift_dir_call'
op|']'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.shift_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'argparse.ArgumentParser'"
op|')'
newline|'\n'
DECL|member|test_main_confirm_dir_idempotent_shifted
name|'def'
name|'test_main_confirm_dir_idempotent_shifted'
op|'('
name|'self'
op|','
name|'mock_parser_class'
op|','
nl|'\n'
name|'mock_confirm_dir'
op|','
nl|'\n'
name|'mock_shift_dir'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_parser'
op|'='
name|'mock'
op|'.'
name|'MagicMock'
op|'('
op|')'
newline|'\n'
name|'mock_parser'
op|'.'
name|'parse_args'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_parser'
op|'.'
name|'idempotent'
op|'='
name|'True'
newline|'\n'
name|'mock_parser'
op|'.'
name|'confirm'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'path'
op|'='
string|"'/test/path'"
newline|'\n'
name|'mock_parser'
op|'.'
name|'uid'
op|'='
name|'self'
op|'.'
name|'uid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'gid'
op|'='
name|'self'
op|'.'
name|'gid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'nobody'
op|'='
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
newline|'\n'
name|'mock_parser'
op|'.'
name|'dry_run'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'verbose'
op|'='
name|'False'
newline|'\n'
name|'mock_parser_class'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'return_value'
op|'='
name|'True'
newline|'\n'
nl|'\n'
name|'try'
op|':'
newline|'\n'
indent|' '
name|'idmapshift'
op|'.'
name|'main'
op|'('
op|')'
newline|'\n'
dedent|''
name|'except'
name|'SystemExit'
name|'as'
name|'sys_exit'
op|':'
newline|'\n'
indent|' '
name|'self'
op|'.'
name|'assertEqual'
op|'('
name|'sys_exit'
op|'.'
name|'code'
op|','
number|'0'
op|')'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_confirm_dir_call'
op|'='
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock_confirm_dir_call'
op|']'
op|')'
newline|'\n'
name|'mock_shift_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
op|']'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.shift_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'argparse.ArgumentParser'"
op|')'
newline|'\n'
DECL|member|test_main_confirm_dir_confirm_unshifted
name|'def'
name|'test_main_confirm_dir_confirm_unshifted'
op|'('
name|'self'
op|','
name|'mock_parser_class'
op|','
nl|'\n'
name|'mock_confirm_dir'
op|','
nl|'\n'
name|'mock_shift_dir'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_parser'
op|'='
name|'mock'
op|'.'
name|'MagicMock'
op|'('
op|')'
newline|'\n'
name|'mock_parser'
op|'.'
name|'parse_args'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_parser'
op|'.'
name|'idempotent'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'confirm'
op|'='
name|'True'
newline|'\n'
name|'mock_parser'
op|'.'
name|'exit_on_fail'
op|'='
name|'True'
newline|'\n'
name|'mock_parser'
op|'.'
name|'path'
op|'='
string|"'/test/path'"
newline|'\n'
name|'mock_parser'
op|'.'
name|'uid'
op|'='
name|'self'
op|'.'
name|'uid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'gid'
op|'='
name|'self'
op|'.'
name|'gid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'nobody'
op|'='
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
newline|'\n'
name|'mock_parser'
op|'.'
name|'dry_run'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'verbose'
op|'='
name|'False'
newline|'\n'
name|'mock_parser_class'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'return_value'
op|'='
name|'False'
newline|'\n'
nl|'\n'
name|'try'
op|':'
newline|'\n'
indent|' '
name|'idmapshift'
op|'.'
name|'main'
op|'('
op|')'
newline|'\n'
dedent|''
name|'except'
name|'SystemExit'
name|'as'
name|'sys_exit'
op|':'
newline|'\n'
indent|' '
name|'self'
op|'.'
name|'assertEqual'
op|'('
name|'sys_exit'
op|'.'
name|'code'
op|','
number|'1'
op|')'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_confirm_dir_call'
op|'='
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock_confirm_dir_call'
op|']'
op|')'
newline|'\n'
name|'mock_shift_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
op|']'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.shift_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'nova.cmd.idmapshift.confirm_dir'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'argparse.ArgumentParser'"
op|')'
newline|'\n'
DECL|member|test_main_confirm_dir_confirm_shifted
name|'def'
name|'test_main_confirm_dir_confirm_shifted'
op|'('
name|'self'
op|','
name|'mock_parser_class'
op|','
nl|'\n'
name|'mock_confirm_dir'
op|','
nl|'\n'
name|'mock_shift_dir'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_parser'
op|'='
name|'mock'
op|'.'
name|'MagicMock'
op|'('
op|')'
newline|'\n'
name|'mock_parser'
op|'.'
name|'parse_args'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_parser'
op|'.'
name|'idempotent'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'confirm'
op|'='
name|'True'
newline|'\n'
name|'mock_parser'
op|'.'
name|'exit_on_fail'
op|'='
name|'True'
newline|'\n'
name|'mock_parser'
op|'.'
name|'path'
op|'='
string|"'/test/path'"
newline|'\n'
name|'mock_parser'
op|'.'
name|'uid'
op|'='
name|'self'
op|'.'
name|'uid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'gid'
op|'='
name|'self'
op|'.'
name|'gid_maps'
newline|'\n'
name|'mock_parser'
op|'.'
name|'nobody'
op|'='
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
newline|'\n'
name|'mock_parser'
op|'.'
name|'dry_run'
op|'='
name|'False'
newline|'\n'
name|'mock_parser'
op|'.'
name|'verbose'
op|'='
name|'False'
newline|'\n'
name|'mock_parser_class'
op|'.'
name|'return_value'
op|'='
name|'mock_parser'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'return_value'
op|'='
name|'True'
newline|'\n'
nl|'\n'
name|'try'
op|':'
newline|'\n'
indent|' '
name|'idmapshift'
op|'.'
name|'main'
op|'('
op|')'
newline|'\n'
dedent|''
name|'except'
name|'SystemExit'
name|'as'
name|'sys_exit'
op|':'
newline|'\n'
indent|' '
name|'self'
op|'.'
name|'assertEqual'
op|'('
name|'sys_exit'
op|'.'
name|'code'
op|','
number|'0'
op|')'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_confirm_dir_call'
op|'='
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/test/path'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
name|'mock_confirm_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
name|'mock_confirm_dir_call'
op|']'
op|')'
newline|'\n'
name|'mock_shift_dir'
op|'.'
name|'assert_has_calls'
op|'('
op|'['
op|']'
op|')'
newline|'\n'
nl|'\n'
nl|'\n'
DECL|class|IntegrationTestCase
dedent|''
dedent|''
name|'class'
name|'IntegrationTestCase'
op|'('
name|'BaseTestCase'
op|')'
op|':'
newline|'\n'
indent|' '
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lchown'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_integrated_shift_dir
name|'def'
name|'test_integrated_shift_dir'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
name|'mock_lstat'
op|','
nl|'\n'
name|'mock_lchown'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/tmp/test'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|']'
op|','
op|'['
string|"'d'"
op|']'
op|')'
op|','
nl|'\n'
op|'('
string|"'/tmp/test/d'"
op|','
op|'['
string|"'1'"
op|','
string|"'2'"
op|']'
op|','
op|'['
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
DECL|function|lstat
name|'def'
name|'lstat'
op|'('
name|'path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'stats'
op|'='
op|'{'
nl|'\n'
string|"'t'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
op|','
nl|'\n'
string|"'a'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
op|','
nl|'\n'
string|"'b'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'2'
op|')'
op|','
nl|'\n'
string|"'c'"
op|':'
name|'FakeStat'
op|'('
number|'30000'
op|','
number|'30000'
op|')'
op|','
nl|'\n'
string|"'d'"
op|':'
name|'FakeStat'
op|'('
number|'100'
op|','
number|'100'
op|')'
op|','
nl|'\n'
string|"'1'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'100'
op|')'
op|','
nl|'\n'
string|"'2'"
op|':'
name|'FakeStat'
op|'('
number|'100'
op|','
number|'100'
op|')'
op|','
nl|'\n'
op|'}'
newline|'\n'
name|'return'
name|'stats'
op|'['
name|'path'
op|'['
op|'-'
number|'1'
op|']'
op|']'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_lstat'
op|'.'
name|'side_effect'
op|'='
name|'lstat'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'shift_dir'
op|'('
string|"'/tmp/test'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'verbose'
op|'='
name|'True'
op|')'
newline|'\n'
nl|'\n'
name|'lchown_calls'
op|'='
op|'['
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/tmp/test'"
op|','
number|'10000'
op|','
number|'10000'
op|')'
op|','
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/tmp/test/a'"
op|','
number|'10000'
op|','
number|'10000'
op|')'
op|','
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/tmp/test/b'"
op|','
number|'10000'
op|','
number|'10002'
op|')'
op|','
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/tmp/test/c'"
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
op|','
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/tmp/test/d'"
op|','
number|'20090'
op|','
number|'20090'
op|')'
op|','
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/tmp/test/d/1'"
op|','
number|'10000'
op|','
number|'20090'
op|')'
op|','
nl|'\n'
name|'mock'
op|'.'
name|'call'
op|'('
string|"'/tmp/test/d/2'"
op|','
number|'20090'
op|','
number|'20090'
op|')'
op|','
nl|'\n'
op|']'
newline|'\n'
name|'mock_lchown'
op|'.'
name|'assert_has_calls'
op|'('
name|'lchown_calls'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lchown'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_integrated_shift_dir_dry_run
name|'def'
name|'test_integrated_shift_dir_dry_run'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
nl|'\n'
name|'mock_lstat'
op|','
name|'mock_lchown'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/tmp/test'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|']'
op|','
op|'['
string|"'d'"
op|']'
op|')'
op|','
nl|'\n'
op|'('
string|"'/tmp/test/d'"
op|','
op|'['
string|"'1'"
op|','
string|"'2'"
op|']'
op|','
op|'['
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
DECL|function|lstat
name|'def'
name|'lstat'
op|'('
name|'path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'stats'
op|'='
op|'{'
nl|'\n'
string|"'t'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
op|','
nl|'\n'
string|"'a'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
op|','
nl|'\n'
string|"'b'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'2'
op|')'
op|','
nl|'\n'
string|"'c'"
op|':'
name|'FakeStat'
op|'('
number|'30000'
op|','
number|'30000'
op|')'
op|','
nl|'\n'
string|"'d'"
op|':'
name|'FakeStat'
op|'('
number|'100'
op|','
number|'100'
op|')'
op|','
nl|'\n'
string|"'1'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'100'
op|')'
op|','
nl|'\n'
string|"'2'"
op|':'
name|'FakeStat'
op|'('
number|'100'
op|','
number|'100'
op|')'
op|','
nl|'\n'
op|'}'
newline|'\n'
name|'return'
name|'stats'
op|'['
name|'path'
op|'['
op|'-'
number|'1'
op|']'
op|']'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_lstat'
op|'.'
name|'side_effect'
op|'='
name|'lstat'
newline|'\n'
nl|'\n'
name|'idmapshift'
op|'.'
name|'shift_dir'
op|'('
string|"'/tmp/test'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
name|'self'
op|'.'
name|'gid_maps'
op|','
nl|'\n'
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'dry_run'
op|'='
name|'True'
op|','
name|'verbose'
op|'='
name|'True'
op|')'
newline|'\n'
nl|'\n'
name|'self'
op|'.'
name|'assertEqual'
op|'('
number|'0'
op|','
name|'len'
op|'('
name|'mock_lchown'
op|'.'
name|'mock_calls'
op|')'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_integrated_confirm_dir_shifted
name|'def'
name|'test_integrated_confirm_dir_shifted'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
nl|'\n'
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/tmp/test'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|']'
op|','
op|'['
string|"'d'"
op|']'
op|')'
op|','
nl|'\n'
op|'('
string|"'/tmp/test/d'"
op|','
op|'['
string|"'1'"
op|','
string|"'2'"
op|']'
op|','
op|'['
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
DECL|function|lstat
name|'def'
name|'lstat'
op|'('
name|'path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'stats'
op|'='
op|'{'
nl|'\n'
string|"'t'"
op|':'
name|'FakeStat'
op|'('
number|'10000'
op|','
number|'10000'
op|')'
op|','
nl|'\n'
string|"'a'"
op|':'
name|'FakeStat'
op|'('
number|'10000'
op|','
number|'10000'
op|')'
op|','
nl|'\n'
string|"'b'"
op|':'
name|'FakeStat'
op|'('
number|'10000'
op|','
number|'10002'
op|')'
op|','
nl|'\n'
string|"'c'"
op|':'
name|'FakeStat'
op|'('
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
op|','
nl|'\n'
string|"'d'"
op|':'
name|'FakeStat'
op|'('
number|'20090'
op|','
number|'20090'
op|')'
op|','
nl|'\n'
string|"'1'"
op|':'
name|'FakeStat'
op|'('
number|'10000'
op|','
number|'20090'
op|')'
op|','
nl|'\n'
string|"'2'"
op|':'
name|'FakeStat'
op|'('
number|'20090'
op|','
number|'20090'
op|')'
op|','
nl|'\n'
op|'}'
newline|'\n'
name|'return'
name|'stats'
op|'['
name|'path'
op|'['
op|'-'
number|'1'
op|']'
op|']'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_lstat'
op|'.'
name|'side_effect'
op|'='
name|'lstat'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_dir'
op|'('
string|"'/tmp/test'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
nl|'\n'
name|'self'
op|'.'
name|'assertTrue'
op|'('
name|'result'
op|')'
newline|'\n'
nl|'\n'
dedent|''
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.lstat'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.path.join'"
op|')'
newline|'\n'
op|'@'
name|'mock'
op|'.'
name|'patch'
op|'('
string|"'os.walk'"
op|')'
newline|'\n'
DECL|member|test_integrated_confirm_dir_unshifted
name|'def'
name|'test_integrated_confirm_dir_unshifted'
op|'('
name|'self'
op|','
name|'mock_walk'
op|','
name|'mock_join'
op|','
nl|'\n'
name|'mock_lstat'
op|')'
op|':'
newline|'\n'
indent|' '
name|'mock_walk'
op|'.'
name|'return_value'
op|'='
op|'['
op|'('
string|"'/tmp/test'"
op|','
op|'['
string|"'a'"
op|','
string|"'b'"
op|','
string|"'c'"
op|']'
op|','
op|'['
string|"'d'"
op|']'
op|')'
op|','
nl|'\n'
op|'('
string|"'/tmp/test/d'"
op|','
op|'['
string|"'1'"
op|','
string|"'2'"
op|']'
op|','
op|'['
op|']'
op|')'
op|']'
newline|'\n'
name|'mock_join'
op|'.'
name|'side_effect'
op|'='
name|'join_side_effect'
newline|'\n'
nl|'\n'
DECL|function|lstat
name|'def'
name|'lstat'
op|'('
name|'path'
op|')'
op|':'
newline|'\n'
indent|' '
name|'stats'
op|'='
op|'{'
nl|'\n'
string|"'t'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
op|','
nl|'\n'
string|"'a'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'0'
op|')'
op|','
nl|'\n'
string|"'b'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'2'
op|')'
op|','
nl|'\n'
string|"'c'"
op|':'
name|'FakeStat'
op|'('
number|'30000'
op|','
number|'30000'
op|')'
op|','
nl|'\n'
string|"'d'"
op|':'
name|'FakeStat'
op|'('
number|'100'
op|','
number|'100'
op|')'
op|','
nl|'\n'
string|"'1'"
op|':'
name|'FakeStat'
op|'('
number|'0'
op|','
number|'100'
op|')'
op|','
nl|'\n'
string|"'2'"
op|':'
name|'FakeStat'
op|'('
number|'100'
op|','
number|'100'
op|')'
op|','
nl|'\n'
op|'}'
newline|'\n'
name|'return'
name|'stats'
op|'['
name|'path'
op|'['
op|'-'
number|'1'
op|']'
op|']'
newline|'\n'
nl|'\n'
dedent|''
name|'mock_lstat'
op|'.'
name|'side_effect'
op|'='
name|'lstat'
newline|'\n'
nl|'\n'
name|'result'
op|'='
name|'idmapshift'
op|'.'
name|'confirm_dir'
op|'('
string|"'/tmp/test'"
op|','
name|'self'
op|'.'
name|'uid_maps'
op|','
nl|'\n'
name|'self'
op|'.'
name|'gid_maps'
op|','
name|'idmapshift'
op|'.'
name|'NOBODY_ID'
op|')'
newline|'\n'
nl|'\n'
name|'self'
op|'.'
name|'assertFalse'
op|'('
name|'result'
op|')'
newline|'\n'
dedent|''
dedent|''
endmarker|''
end_unit
| 11.781194
| 84
| 0.588728
| 9,008
| 59,012
| 3.73357
| 0.024534
| 0.179829
| 0.092174
| 0.05138
| 0.962387
| 0.950107
| 0.93747
| 0.917876
| 0.894178
| 0.875178
| 0
| 0.010734
| 0.095438
| 59,012
| 5,008
| 85
| 11.783546
| 0.619314
| 0
| 0
| 0.97484
| 0
| 0
| 0.339067
| 0.031197
| 0
| 0
| 0
| 0
| 0.012979
| 0
| null | null | 0
| 0.000799
| null | null | 0.000998
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
c0993f066edce1617598132d95ab381bcdf8258b
| 39,502
|
py
|
Python
|
alibabacloud-gateway-fc/python/alibabacloud_gateway_fc/client.py
|
aliyun/alibabacloud-gateway
|
6fb50cd7a0731164a02fa8f1a07fd09ec66d508d
|
[
"Apache-2.0"
] | 2
|
2021-11-30T04:14:36.000Z
|
2021-11-30T04:38:13.000Z
|
alibabacloud-gateway-fc/python/alibabacloud_gateway_fc/client.py
|
aliyun/alibabacloud-gateway
|
6fb50cd7a0731164a02fa8f1a07fd09ec66d508d
|
[
"Apache-2.0"
] | 3
|
2021-12-16T03:16:38.000Z
|
2022-03-11T06:34:59.000Z
|
alibabacloud-gateway-fc/python/alibabacloud_gateway_fc/client.py
|
aliyun/alibabacloud-gateway
|
6fb50cd7a0731164a02fa8f1a07fd09ec66d508d
|
[
"Apache-2.0"
] | 2
|
2021-12-16T01:47:40.000Z
|
2021-12-16T07:21:38.000Z
|
# -*- coding: utf-8 -*-
# This file is auto-generated, don't edit it. Thanks.
from Tea.exceptions import TeaException
from alibabacloud_darabonba_encode_util.encoder import Encoder
from alibabacloud_darabonba_signature_util.signer import Signer
from typing import Dict, Any, List
from Tea.core import TeaCore
from alibabacloud_gateway_spi.client import Client as SPIClient
from alibabacloud_gateway_spi import models as spi_models
from alibabacloud_darabonba_string.client import Client as StringClient
from alibabacloud_tea_util.client import Client as UtilClient
from alibabacloud_endpoint_util.client import Client as EndpointUtilClient
from alibabacloud_openapi_util.client import Client as OpenApiUtilClient
from alibabacloud_darabonba_array.client import Client as ArrayClient
from alibabacloud_darabonba_map.client import Client as MapClient
from alibabacloud_gateway_fc import models as gateway_fc_models
from alibabacloud_credentials.client import Client as CredentialClient
class Client(SPIClient):
def __init__(self):
super().__init__()
def modify_configuration(
self,
context: spi_models.InterceptorContext,
attribute_map: spi_models.AttributeMap,
) -> None:
request = context.request
config = context.configuration
config.endpoint = self.get_endpoint(request.product_id, config.region_id, config.endpoint_rule, config.network, config.suffix, config.endpoint_map, config.endpoint)
async def modify_configuration_async(
self,
context: spi_models.InterceptorContext,
attribute_map: spi_models.AttributeMap,
) -> None:
request = context.request
config = context.configuration
config.endpoint = self.get_endpoint(request.product_id, config.region_id, config.endpoint_rule, config.network, config.suffix, config.endpoint_map, config.endpoint)
def modify_request(
self,
context: spi_models.InterceptorContext,
attribute_map: spi_models.AttributeMap,
) -> None:
config = context.configuration
if not StringClient.has_suffix(config.endpoint, 'aliyuncs.com'):
self.sign_request_for_fc(context)
else:
self.sign_request_for_pop(context)
async def modify_request_async(
self,
context: spi_models.InterceptorContext,
attribute_map: spi_models.AttributeMap,
) -> None:
config = context.configuration
if not StringClient.has_suffix(config.endpoint, 'aliyuncs.com'):
await self.sign_request_for_fc_async(context)
else:
await self.sign_request_for_pop_async(context)
def modify_response(
self,
context: spi_models.InterceptorContext,
attribute_map: spi_models.AttributeMap,
) -> None:
request = context.request
config = context.configuration
response = context.response
if UtilClient.is_4xx(response.status_code) or UtilClient.is_5xx(response.status_code):
if StringClient.has_prefix(config.endpoint, 'fc.') and StringClient.has_suffix(config.endpoint, '.aliyuncs.com'):
pop_res = UtilClient.read_as_json(response.body)
pop_err = UtilClient.assert_as_map(pop_res)
raise TeaException({
'code': f"{self.default_any(pop_err.get('Code'), pop_err.get('code'))}",
'message': f"code: {response.status_code}, {self.default_any(pop_err.get('Message'), pop_err.get('message'))} request id: {self.default_any(pop_err.get('RequestID'), pop_err.get('RequestId'))}",
'data': pop_err
})
else:
_headers = UtilClient.assert_as_map(response.headers)
fc_res = UtilClient.read_as_json(response.body)
fc_err = UtilClient.assert_as_map(fc_res)
raise TeaException({
'code': fc_err.get('ErrorCode'),
'message': f"code: {response.status_code}, {fc_err.get('ErrorMessage')} request id: {_headers.get('x-fc-request-id')}",
'data': fc_err
})
if UtilClient.equal_string(request.body_type, 'binary'):
response.deserialized_body = response.body
elif UtilClient.equal_string(request.body_type, 'byte'):
byt = UtilClient.read_as_bytes(response.body)
response.deserialized_body = byt
elif UtilClient.equal_string(request.body_type, 'string'):
str = UtilClient.read_as_string(response.body)
response.deserialized_body = str
elif UtilClient.equal_string(request.body_type, 'json'):
obj = UtilClient.read_as_json(response.body)
res = UtilClient.assert_as_map(obj)
response.deserialized_body = res
elif UtilClient.equal_string(request.body_type, 'array'):
arr = UtilClient.read_as_json(response.body)
response.deserialized_body = arr
else:
response.deserialized_body = UtilClient.read_as_string(response.body)
async def modify_response_async(
self,
context: spi_models.InterceptorContext,
attribute_map: spi_models.AttributeMap,
) -> None:
request = context.request
config = context.configuration
response = context.response
if UtilClient.is_4xx(response.status_code) or UtilClient.is_5xx(response.status_code):
if StringClient.has_prefix(config.endpoint, 'fc.') and StringClient.has_suffix(config.endpoint, '.aliyuncs.com'):
pop_res = await UtilClient.read_as_json_async(response.body)
pop_err = UtilClient.assert_as_map(pop_res)
raise TeaException({
'code': f"{self.default_any(pop_err.get('Code'), pop_err.get('code'))}",
'message': f"code: {response.status_code}, {self.default_any(pop_err.get('Message'), pop_err.get('message'))} request id: {self.default_any(pop_err.get('RequestID'), pop_err.get('RequestId'))}",
'data': pop_err
})
else:
_headers = UtilClient.assert_as_map(response.headers)
fc_res = await UtilClient.read_as_json_async(response.body)
fc_err = UtilClient.assert_as_map(fc_res)
raise TeaException({
'code': fc_err.get('ErrorCode'),
'message': f"code: {response.status_code}, {fc_err.get('ErrorMessage')} request id: {_headers.get('x-fc-request-id')}",
'data': fc_err
})
if UtilClient.equal_string(request.body_type, 'binary'):
response.deserialized_body = response.body
elif UtilClient.equal_string(request.body_type, 'byte'):
byt = await UtilClient.read_as_bytes_async(response.body)
response.deserialized_body = byt
elif UtilClient.equal_string(request.body_type, 'string'):
str = await UtilClient.read_as_string_async(response.body)
response.deserialized_body = str
elif UtilClient.equal_string(request.body_type, 'json'):
obj = await UtilClient.read_as_json_async(response.body)
res = UtilClient.assert_as_map(obj)
response.deserialized_body = res
elif UtilClient.equal_string(request.body_type, 'array'):
arr = await UtilClient.read_as_json_async(response.body)
response.deserialized_body = arr
else:
response.deserialized_body = await UtilClient.read_as_string_async(response.body)
def get_endpoint(
self,
product_id: str,
region_id: str,
endpoint_rule: str,
network: str,
suffix: str,
endpoint_map: Dict[str, str],
endpoint: str,
) -> str:
if not UtilClient.empty(endpoint):
return endpoint
if not UtilClient.is_unset(endpoint_map) and not UtilClient.empty(endpoint_map.get(region_id)):
return endpoint_map.get(region_id)
return EndpointUtilClient.get_endpoint_rules(product_id, region_id, endpoint_rule, network, suffix)
def default_any(
self,
input_value: Any,
default_value: Any,
) -> Any:
if UtilClient.is_unset(input_value):
return default_value
return input_value
def sign_request_for_fc(
self,
context: spi_models.InterceptorContext,
) -> None:
request = context.request
config = context.configuration
request.headers = TeaCore.merge({
'host': config.endpoint,
'date': UtilClient.get_date_utcstring(),
'accept': 'application/json',
'user-agent': request.user_agent
}, request.headers)
request.headers['content-type'] = 'application/json'
if not UtilClient.is_unset(request.stream):
tmp = UtilClient.read_as_bytes(request.stream)
request.stream = tmp
request.headers['content-type'] = 'application/octet-stream'
request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign_for_bytes(tmp))
else:
if not UtilClient.is_unset(request.body):
if UtilClient.equal_string(request.req_body_type, 'json'):
json_obj = UtilClient.to_jsonstring(request.body)
request.stream = json_obj
request.headers['content-type'] = 'application/json'
request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(json_obj))
else:
m = UtilClient.assert_as_map(request.body)
form_obj = OpenApiUtilClient.to_form(m)
request.stream = form_obj
request.headers['content-type'] = 'application/x-www-form-urlencoded'
request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(form_obj))
credential = request.credential
access_key_id = credential.get_access_key_id()
access_key_secret = credential.get_access_key_secret()
security_token = credential.get_security_token()
if not UtilClient.empty(security_token):
request.headers['x-fc-security-token'] = security_token
request.headers['Authorization'] = self.get_authorization_for_fc(request.pathname, request.method, request.query, request.headers, access_key_id, access_key_secret)
async def sign_request_for_fc_async(
self,
context: spi_models.InterceptorContext,
) -> None:
request = context.request
config = context.configuration
request.headers = TeaCore.merge({
'host': config.endpoint,
'date': UtilClient.get_date_utcstring(),
'accept': 'application/json',
'user-agent': request.user_agent
}, request.headers)
request.headers['content-type'] = 'application/json'
if not UtilClient.is_unset(request.stream):
tmp = await UtilClient.read_as_bytes_async(request.stream)
request.stream = tmp
request.headers['content-type'] = 'application/octet-stream'
request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign_for_bytes(tmp))
else:
if not UtilClient.is_unset(request.body):
if UtilClient.equal_string(request.req_body_type, 'json'):
json_obj = UtilClient.to_jsonstring(request.body)
request.stream = json_obj
request.headers['content-type'] = 'application/json'
request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(json_obj))
else:
m = UtilClient.assert_as_map(request.body)
form_obj = OpenApiUtilClient.to_form(m)
request.stream = form_obj
request.headers['content-type'] = 'application/x-www-form-urlencoded'
request.headers['content-md5'] = Encoder.base_64encode_to_string(Signer.md5sign(form_obj))
credential = request.credential
access_key_id = await credential.get_access_key_id_async()
access_key_secret = await credential.get_access_key_secret_async()
security_token = await credential.get_security_token_async()
if not UtilClient.empty(security_token):
request.headers['x-fc-security-token'] = security_token
request.headers['Authorization'] = await self.get_authorization_for_fc_async(request.pathname, request.method, request.query, request.headers, access_key_id, access_key_secret)
def sign_request_for_pop(
self,
context: spi_models.InterceptorContext,
) -> None:
request = context.request
config = context.configuration
request.headers = TeaCore.merge({
'host': config.endpoint,
'x-acs-version': request.version,
'x-acs-action': request.action,
'user-agent': request.user_agent,
'x-acs-date': OpenApiUtilClient.get_timestamp(),
'x-acs-signature-nonce': UtilClient.get_nonce(),
'accept': 'application/json'
}, request.headers)
signature_algorithm = 'ACS3-HMAC-SHA256'
if not UtilClient.is_unset(request.signature_algorithm):
signature_algorithm = request.signature_algorithm
hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(''), signature_algorithm))
if not UtilClient.is_unset(request.stream):
tmp = UtilClient.read_as_bytes(request.stream)
hashed_request_payload = Encoder.hex_encode(Encoder.hash(tmp, signature_algorithm))
request.stream = tmp
request.headers['content-type'] = 'application/octet-stream'
else:
if not UtilClient.is_unset(request.body):
if UtilClient.equal_string(request.req_body_type, 'json'):
json_obj = UtilClient.to_jsonstring(request.body)
hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(json_obj), signature_algorithm))
request.stream = json_obj
request.headers['content-type'] = 'application/json; charset=utf-8'
else:
m = UtilClient.assert_as_map(request.body)
form_obj = OpenApiUtilClient.to_form(m)
hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(form_obj), signature_algorithm))
request.stream = form_obj
request.headers['content-type'] = 'application/x-www-form-urlencoded'
request.headers['x-acs-content-sha256'] = hashed_request_payload
if not UtilClient.equal_string(request.auth_type, 'Anonymous'):
credential = request.credential
access_key_id = credential.get_access_key_id()
access_key_secret = credential.get_access_key_secret()
security_token = credential.get_security_token()
if not UtilClient.empty(security_token):
request.headers['x-acs-accesskey-id'] = access_key_id
request.headers['x-acs-security-token'] = security_token
request.headers['Authorization'] = self.get_authorization_for_pop(request.pathname, request.method, request.query, request.headers, signature_algorithm, hashed_request_payload, access_key_id, access_key_secret)
async def sign_request_for_pop_async(
self,
context: spi_models.InterceptorContext,
) -> None:
request = context.request
config = context.configuration
request.headers = TeaCore.merge({
'host': config.endpoint,
'x-acs-version': request.version,
'x-acs-action': request.action,
'user-agent': request.user_agent,
'x-acs-date': OpenApiUtilClient.get_timestamp(),
'x-acs-signature-nonce': UtilClient.get_nonce(),
'accept': 'application/json'
}, request.headers)
signature_algorithm = 'ACS3-HMAC-SHA256'
if not UtilClient.is_unset(request.signature_algorithm):
signature_algorithm = request.signature_algorithm
hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(''), signature_algorithm))
if not UtilClient.is_unset(request.stream):
tmp = await UtilClient.read_as_bytes_async(request.stream)
hashed_request_payload = Encoder.hex_encode(Encoder.hash(tmp, signature_algorithm))
request.stream = tmp
request.headers['content-type'] = 'application/octet-stream'
else:
if not UtilClient.is_unset(request.body):
if UtilClient.equal_string(request.req_body_type, 'json'):
json_obj = UtilClient.to_jsonstring(request.body)
hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(json_obj), signature_algorithm))
request.stream = json_obj
request.headers['content-type'] = 'application/json; charset=utf-8'
else:
m = UtilClient.assert_as_map(request.body)
form_obj = OpenApiUtilClient.to_form(m)
hashed_request_payload = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(form_obj), signature_algorithm))
request.stream = form_obj
request.headers['content-type'] = 'application/x-www-form-urlencoded'
request.headers['x-acs-content-sha256'] = hashed_request_payload
if not UtilClient.equal_string(request.auth_type, 'Anonymous'):
credential = request.credential
access_key_id = await credential.get_access_key_id_async()
access_key_secret = await credential.get_access_key_secret_async()
security_token = await credential.get_security_token_async()
if not UtilClient.empty(security_token):
request.headers['x-acs-accesskey-id'] = access_key_id
request.headers['x-acs-security-token'] = security_token
request.headers['Authorization'] = await self.get_authorization_for_pop_async(request.pathname, request.method, request.query, request.headers, signature_algorithm, hashed_request_payload, access_key_id, access_key_secret)
def get_authorization_for_fc(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
ak: str,
secret: str,
) -> str:
sign = self.get_signature_for_fc(pathname, method, query, headers, secret)
return f'FC {ak}:{sign}'
async def get_authorization_for_fc_async(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
ak: str,
secret: str,
) -> str:
sign = await self.get_signature_for_fc_async(pathname, method, query, headers, secret)
return f'FC {ak}:{sign}'
def get_signature_for_fc(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
secret: str,
) -> str:
resource = pathname
content_md_5 = headers.get('content-md5')
if UtilClient.is_unset(content_md_5):
content_md_5 = ''
content_type = headers.get('content-type')
if UtilClient.is_unset(content_type):
content_type = ''
string_to_sign = ''
canonicalized_resource = self.build_canonicalized_resource_for_fc(resource, query)
canonicalized_headers = self.build_canonicalized_headers_for_fc(headers)
string_to_sign = f"{method}\n{content_md_5}\n{content_type}\n{headers.get('date')}\n{canonicalized_headers}{canonicalized_resource}"
return Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, secret))
async def get_signature_for_fc_async(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
secret: str,
) -> str:
resource = pathname
content_md_5 = headers.get('content-md5')
if UtilClient.is_unset(content_md_5):
content_md_5 = ''
content_type = headers.get('content-type')
if UtilClient.is_unset(content_type):
content_type = ''
string_to_sign = ''
canonicalized_resource = await self.build_canonicalized_resource_for_fc_async(resource, query)
canonicalized_headers = await self.build_canonicalized_headers_for_fc_async(headers)
string_to_sign = f"{method}\n{content_md_5}\n{content_type}\n{headers.get('date')}\n{canonicalized_headers}{canonicalized_resource}"
return Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, secret))
def build_canonicalized_resource_for_fc(
self,
pathname: str,
query: Dict[str, str],
) -> str:
paths = StringClient.split(pathname, f'?', 2)
canonicalized_resource = paths[0]
resources = {}
if UtilClient.equal_number(ArrayClient.size(paths), 2):
resources = StringClient.split(paths[1], '&', 0)
sub_resources = {}
tmp = ''
separator = ''
if not UtilClient.is_unset(query):
query_list = MapClient.key_set(query)
for param_name in query_list:
tmp = f'{tmp}{separator}{param_name}'
if not UtilClient.is_unset(query.get(param_name)):
tmp = f'{tmp}={query.get(param_name)}'
separator = ';'
sub_resources = StringClient.split(tmp, ';', 0)
result = ArrayClient.concat(sub_resources, resources)
sorted_params = ArrayClient.asc_sort(result)
if UtilClient.equal_number(ArrayClient.size(sorted_params), 0):
return f'{canonicalized_resource}\n'
sub_res = ArrayClient.join(sorted_params, '\n')
return f'{canonicalized_resource}\n{sub_res}'
async def build_canonicalized_resource_for_fc_async(
self,
pathname: str,
query: Dict[str, str],
) -> str:
paths = StringClient.split(pathname, f'?', 2)
canonicalized_resource = paths[0]
resources = {}
if UtilClient.equal_number(ArrayClient.size(paths), 2):
resources = StringClient.split(paths[1], '&', 0)
sub_resources = {}
tmp = ''
separator = ''
if not UtilClient.is_unset(query):
query_list = MapClient.key_set(query)
for param_name in query_list:
tmp = f'{tmp}{separator}{param_name}'
if not UtilClient.is_unset(query.get(param_name)):
tmp = f'{tmp}={query.get(param_name)}'
separator = ';'
sub_resources = StringClient.split(tmp, ';', 0)
result = ArrayClient.concat(sub_resources, resources)
sorted_params = ArrayClient.asc_sort(result)
if UtilClient.equal_number(ArrayClient.size(sorted_params), 0):
return f'{canonicalized_resource}\n'
sub_res = ArrayClient.join(sorted_params, '\n')
return f'{canonicalized_resource}\n{sub_res}'
def build_canonicalized_headers_for_fc(
self,
headers: Dict[str, str],
) -> str:
canonicalized_headers = ''
keys = MapClient.key_set(headers)
sorted_headers = ArrayClient.asc_sort(keys)
for header in sorted_headers:
if StringClient.contains(StringClient.to_lower(header), 'x-fc-'):
canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{headers.get(header)}\n'
return canonicalized_headers
async def build_canonicalized_headers_for_fc_async(
self,
headers: Dict[str, str],
) -> str:
canonicalized_headers = ''
keys = MapClient.key_set(headers)
sorted_headers = ArrayClient.asc_sort(keys)
for header in sorted_headers:
if StringClient.contains(StringClient.to_lower(header), 'x-fc-'):
canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{headers.get(header)}\n'
return canonicalized_headers
def get_authorization_for_pop(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
signature_algorithm: str,
payload: str,
ak: str,
secret: str,
) -> str:
signature = self.get_signature_for_pop(pathname, method, query, headers, signature_algorithm, payload, secret)
signed_headers = self.get_signed_headers(headers)
return f"{signature_algorithm} Credential={ak},SignedHeaders={ArrayClient.join(signed_headers, ';')},Signature={signature}"
async def get_authorization_for_pop_async(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
signature_algorithm: str,
payload: str,
ak: str,
secret: str,
) -> str:
signature = await self.get_signature_for_pop_async(pathname, method, query, headers, signature_algorithm, payload, secret)
signed_headers = await self.get_signed_headers_async(headers)
return f"{signature_algorithm} Credential={ak},SignedHeaders={ArrayClient.join(signed_headers, ';')},Signature={signature}"
def get_signature_for_pop(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
signature_algorithm: str,
payload: str,
secret: str,
) -> str:
canonical_uri = '/'
if not UtilClient.empty(pathname):
canonical_uri = pathname
string_to_sign = ''
canonicalized_resource = self.build_canonicalized_resource_for_pop(query)
canonicalized_headers = self.build_canonicalized_headers_for_pop(headers)
signed_headers = self.get_signed_headers(headers)
string_to_sign = f"{method}\n{canonical_uri}\n{canonicalized_resource}\n{canonicalized_headers}\n{ArrayClient.join(signed_headers, ';')}\n{payload}"
hex = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(string_to_sign), signature_algorithm))
string_to_sign = f'{signature_algorithm}\n{hex}'
signature = UtilClient.to_bytes('')
if StringClient.equals(signature_algorithm, 'ACS3-HMAC-SHA256'):
signature = Signer.hmac_sha256sign(string_to_sign, secret)
elif StringClient.equals(signature_algorithm, 'ACS3-HMAC-SM3'):
signature = Signer.hmac_sm3sign(string_to_sign, secret)
elif StringClient.equals(signature_algorithm, 'ACS3-RSA-SHA256'):
signature = Signer.sha256with_rsasign(string_to_sign, secret)
return Encoder.hex_encode(signature)
async def get_signature_for_pop_async(
self,
pathname: str,
method: str,
query: Dict[str, str],
headers: Dict[str, str],
signature_algorithm: str,
payload: str,
secret: str,
) -> str:
canonical_uri = '/'
if not UtilClient.empty(pathname):
canonical_uri = pathname
string_to_sign = ''
canonicalized_resource = await self.build_canonicalized_resource_for_pop_async(query)
canonicalized_headers = await self.build_canonicalized_headers_for_pop_async(headers)
signed_headers = await self.get_signed_headers_async(headers)
string_to_sign = f"{method}\n{canonical_uri}\n{canonicalized_resource}\n{canonicalized_headers}\n{ArrayClient.join(signed_headers, ';')}\n{payload}"
hex = Encoder.hex_encode(Encoder.hash(UtilClient.to_bytes(string_to_sign), signature_algorithm))
string_to_sign = f'{signature_algorithm}\n{hex}'
signature = UtilClient.to_bytes('')
if StringClient.equals(signature_algorithm, 'ACS3-HMAC-SHA256'):
signature = Signer.hmac_sha256sign(string_to_sign, secret)
elif StringClient.equals(signature_algorithm, 'ACS3-HMAC-SM3'):
signature = Signer.hmac_sm3sign(string_to_sign, secret)
elif StringClient.equals(signature_algorithm, 'ACS3-RSA-SHA256'):
signature = Signer.sha256with_rsasign(string_to_sign, secret)
return Encoder.hex_encode(signature)
def build_canonicalized_resource_for_pop(
self,
query: Dict[str, str],
) -> str:
canonicalized_resource = ''
if not UtilClient.is_unset(query):
query_array = MapClient.key_set(query)
sorted_query_array = ArrayClient.asc_sort(query_array)
separator = ''
for key in sorted_query_array:
canonicalized_resource = f'{canonicalized_resource}{separator}{Encoder.percent_encode(key)}'
if not UtilClient.empty(query.get(key)):
canonicalized_resource = f'{canonicalized_resource}={Encoder.percent_encode(query.get(key))}'
separator = '&'
return canonicalized_resource
async def build_canonicalized_resource_for_pop_async(
self,
query: Dict[str, str],
) -> str:
canonicalized_resource = ''
if not UtilClient.is_unset(query):
query_array = MapClient.key_set(query)
sorted_query_array = ArrayClient.asc_sort(query_array)
separator = ''
for key in sorted_query_array:
canonicalized_resource = f'{canonicalized_resource}{separator}{Encoder.percent_encode(key)}'
if not UtilClient.empty(query.get(key)):
canonicalized_resource = f'{canonicalized_resource}={Encoder.percent_encode(query.get(key))}'
separator = '&'
return canonicalized_resource
def build_canonicalized_headers_for_pop(
self,
headers: Dict[str, str],
) -> str:
canonicalized_headers = ''
sorted_headers = self.get_signed_headers(headers)
for header in sorted_headers:
canonicalized_headers = f'{canonicalized_headers}{header}:{StringClient.trim(headers.get(header))}\n'
return canonicalized_headers
async def build_canonicalized_headers_for_pop_async(
self,
headers: Dict[str, str],
) -> str:
canonicalized_headers = ''
sorted_headers = await self.get_signed_headers_async(headers)
for header in sorted_headers:
canonicalized_headers = f'{canonicalized_headers}{header}:{StringClient.trim(headers.get(header))}\n'
return canonicalized_headers
def get_signed_headers(
self,
headers: Dict[str, str],
) -> List[str]:
headers_array = MapClient.key_set(headers)
sorted_headers_array = ArrayClient.asc_sort(headers_array)
tmp = ''
separator = ''
for key in sorted_headers_array:
lower_key = StringClient.to_lower(key)
if StringClient.has_prefix(lower_key, 'x-acs-') or StringClient.equals(lower_key, 'host') or StringClient.equals(lower_key, 'content-type'):
if not StringClient.contains(tmp, lower_key):
tmp = f'{tmp}{separator}{lower_key}'
separator = ';'
return StringClient.split(tmp, ';', 0)
async def get_signed_headers_async(
self,
headers: Dict[str, str],
) -> List[str]:
headers_array = MapClient.key_set(headers)
sorted_headers_array = ArrayClient.asc_sort(headers_array)
tmp = ''
separator = ''
for key in sorted_headers_array:
lower_key = StringClient.to_lower(key)
if StringClient.has_prefix(lower_key, 'x-acs-') or StringClient.equals(lower_key, 'host') or StringClient.equals(lower_key, 'content-type'):
if not StringClient.contains(tmp, lower_key):
tmp = f'{tmp}{separator}{lower_key}'
separator = ';'
return StringClient.split(tmp, ';', 0)
def sign_request(
self,
request: gateway_fc_models.HttpRequest,
credential: CredentialClient,
) -> Dict[str, Any]:
http_request = gateway_fc_models.HttpRequest(
method=request.method,
path=request.path,
headers=request.headers,
body=request.body,
req_body_type=request.req_body_type
)
http_request.headers['date'] = UtilClient.get_date_utcstring()
http_request.headers['accept'] = 'application/json'
http_request.headers['content-type'] = 'application/json'
if not UtilClient.is_unset(request.body):
if UtilClient.equal_string(request.req_body_type, 'json'):
http_request.headers['content-type'] = 'application/json'
elif UtilClient.equal_string(request.req_body_type, 'form'):
http_request.headers['content-type'] = 'application/x-www-form-urlencoded'
elif UtilClient.equal_string(request.req_body_type, 'binary'):
http_request.headers['content-type'] = 'application/octet-stream'
access_key_id = credential.get_access_key_id()
access_key_secret = credential.get_access_key_secret()
security_token = credential.get_security_token()
if not UtilClient.empty(security_token):
http_request.headers['x-fc-security-token'] = security_token
resource = request.path
content_md_5 = http_request.headers.get('content-md5')
if UtilClient.is_unset(content_md_5):
content_md_5 = ''
content_type = http_request.headers.get('content-type')
if UtilClient.is_unset(content_type):
content_type = ''
string_to_sign = ''
canonicalized_resource = self.build_canonicalized_resource(resource)
canonicalized_headers = self.build_canonicalized_headers(http_request.headers)
string_to_sign = f"{request.method}\n{UtilClient.to_jsonstring(content_md_5)}\n{UtilClient.to_jsonstring(content_type)}\n{UtilClient.to_jsonstring(http_request.headers.get('date'))}\n{canonicalized_headers}{canonicalized_resource}"
signature = Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, access_key_secret))
http_request.headers['Authorization'] = f'FC {access_key_id}:{signature}'
return http_request.headers
async def sign_request_async(
self,
request: gateway_fc_models.HttpRequest,
credential: CredentialClient,
) -> Dict[str, Any]:
http_request = gateway_fc_models.HttpRequest(
method=request.method,
path=request.path,
headers=request.headers,
body=request.body,
req_body_type=request.req_body_type
)
http_request.headers['date'] = UtilClient.get_date_utcstring()
http_request.headers['accept'] = 'application/json'
http_request.headers['content-type'] = 'application/json'
if not UtilClient.is_unset(request.body):
if UtilClient.equal_string(request.req_body_type, 'json'):
http_request.headers['content-type'] = 'application/json'
elif UtilClient.equal_string(request.req_body_type, 'form'):
http_request.headers['content-type'] = 'application/x-www-form-urlencoded'
elif UtilClient.equal_string(request.req_body_type, 'binary'):
http_request.headers['content-type'] = 'application/octet-stream'
access_key_id = await credential.get_access_key_id_async()
access_key_secret = await credential.get_access_key_secret_async()
security_token = await credential.get_security_token_async()
if not UtilClient.empty(security_token):
http_request.headers['x-fc-security-token'] = security_token
resource = request.path
content_md_5 = http_request.headers.get('content-md5')
if UtilClient.is_unset(content_md_5):
content_md_5 = ''
content_type = http_request.headers.get('content-type')
if UtilClient.is_unset(content_type):
content_type = ''
string_to_sign = ''
canonicalized_resource = await self.build_canonicalized_resource_async(resource)
canonicalized_headers = await self.build_canonicalized_headers_async(http_request.headers)
string_to_sign = f"{request.method}\n{UtilClient.to_jsonstring(content_md_5)}\n{UtilClient.to_jsonstring(content_type)}\n{UtilClient.to_jsonstring(http_request.headers.get('date'))}\n{canonicalized_headers}{canonicalized_resource}"
signature = Encoder.base_64encode_to_string(Signer.hmac_sha256sign(string_to_sign, access_key_secret))
http_request.headers['Authorization'] = f'FC {access_key_id}:{signature}'
return http_request.headers
def build_canonicalized_resource(
self,
pathname: str,
) -> str:
paths = StringClient.split(pathname, f'?', 2)
canonicalized_resource = paths[0]
resources = {}
if UtilClient.equal_number(ArrayClient.size(paths), 2):
resources = StringClient.split(paths[1], '&', 0)
sorted_params = ArrayClient.asc_sort(resources)
if UtilClient.equal_number(ArrayClient.size(sorted_params), 0):
return f'{canonicalized_resource}\n'
sub_resources = ArrayClient.join(sorted_params, '\n')
return f'{canonicalized_resource}\n{sub_resources}'
async def build_canonicalized_resource_async(
self,
pathname: str,
) -> str:
paths = StringClient.split(pathname, f'?', 2)
canonicalized_resource = paths[0]
resources = {}
if UtilClient.equal_number(ArrayClient.size(paths), 2):
resources = StringClient.split(paths[1], '&', 0)
sorted_params = ArrayClient.asc_sort(resources)
if UtilClient.equal_number(ArrayClient.size(sorted_params), 0):
return f'{canonicalized_resource}\n'
sub_resources = ArrayClient.join(sorted_params, '\n')
return f'{canonicalized_resource}\n{sub_resources}'
def build_canonicalized_headers(
self,
headers: Dict[str, Any],
) -> str:
canonicalized_headers = ''
keys = MapClient.key_set(headers)
sorted_headers = ArrayClient.asc_sort(keys)
for header in sorted_headers:
if StringClient.contains(StringClient.to_lower(header), 'x-fc-'):
canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{UtilClient.to_jsonstring(headers.get(header))}\n'
return canonicalized_headers
async def build_canonicalized_headers_async(
self,
headers: Dict[str, Any],
) -> str:
canonicalized_headers = ''
keys = MapClient.key_set(headers)
sorted_headers = ArrayClient.asc_sort(keys)
for header in sorted_headers:
if StringClient.contains(StringClient.to_lower(header), 'x-fc-'):
canonicalized_headers = f'{canonicalized_headers}{StringClient.to_lower(header)}:{UtilClient.to_jsonstring(headers.get(header))}\n'
return canonicalized_headers
| 48.949195
| 239
| 0.653309
| 4,427
| 39,502
| 5.560425
| 0.050147
| 0.040949
| 0.0195
| 0.025024
| 0.938089
| 0.915827
| 0.894134
| 0.887918
| 0.876341
| 0.8646
| 0
| 0.004937
| 0.246266
| 39,502
| 806
| 240
| 49.009926
| 0.821824
| 0.001848
| 0
| 0.85098
| 1
| 0.013072
| 0.130624
| 0.08568
| 0
| 0
| 0
| 0
| 0.015686
| 1
| 0.026144
| false
| 0
| 0.019608
| 0
| 0.090196
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
c0bea784fe5de913f766d7b048b711625f9983e4
| 32,696
|
py
|
Python
|
RegnierProblemLP.py
|
LuizHNLorena/Regnier-Problem
|
6481c3918fccb7e7f54783ea1094604e0571432a
|
[
"MIT"
] | null | null | null |
RegnierProblemLP.py
|
LuizHNLorena/Regnier-Problem
|
6481c3918fccb7e7f54783ea1094604e0571432a
|
[
"MIT"
] | null | null | null |
RegnierProblemLP.py
|
LuizHNLorena/Regnier-Problem
|
6481c3918fccb7e7f54783ea1094604e0571432a
|
[
"MIT"
] | null | null | null |
#coding: utf-8
import csv
import time
from igraph import Graph
class RegnierProblemLP:
"""Regnier Problem Class
Clustering qualitative data through Integer Linear Programming.
Attributes:
S (list of list of int): Similarity Matrix
n (int): Number of instances
m (int): Number of attributes
"""
def __init__(self,dataset):
"""Receives dataset name and construct Similarity Matrix
It receives as parameter the path to the dataset. The dataset is
stored temporaly in matrix 'D', while its dimensions are store in 'n'
and 'm'.
A Similarity Matrix 'S', with size (nxn) is constructed using the simetric difference
between each element.
Missing values '?' are compensated when calculating the simetric difference
Args:
dataset (str): The path to the dataset file.
"""
self.__S=[]
self.__n=0
self.__m=0
# Store dataset files in matrix 'D' and get 'n' and 'm' values
D=[]
with open(dataset, 'r') as csvfile:
spamreader = csv.reader(csvfile, delimiter=' ', quotechar='|')
for row in spamreader:
D.append([])
for v in row:
D[self.__n].append(v)
self.__m = self.__m + 1
self.__n = self.__n + 1
self.__m=self.__m//self.__n
# Create similarity matrix. Initializing it with -m-1 in the lower triangle of matrix 'S'
for i in range(self.__n):
self.__S.append([])
for j in range (self.__n):
self.__S[i].append(-self.__m -1)
# Calculate the simetric difference between each instance and store it in 'S'.
# The (-) negates the distance, transforming it into a similarity measure.
# Missing values "?" are ignored in the similarity calculus.
for i in range(self.__n):
for j in range (self.__n):
if i != j:
total = 0
total_missing = 0
for k in range(self.__m):
if D[i][k] != "?" and D[j][k] != "?":
if D[i][k] == D[j][k]:
total = total + 1
else:
total_missing = total_missing + 1
self.__S[i][j] = -((self.__m - total_missing) - 2*(total))
def saveRM(self,filename,lp_problem=False):
""""Save Original Model (RM)
Save the original model of Regnier Problem in LP file format.
Args:
filename (str): The path to save the LP file.
lp_problem (bool,optional): If True save it as Linear Programming instead of ILP.
Returns:
Nothing.
"""
# Create LP
print ("Creating Model file...")
filename = filename + "(RM).lp"
f = open(filename, 'w')
f.write("\ENCODING=ISO-8859-1\n")
f.write("\Problem name: RM model\n\n")
f.write("Maximize\n")
f.write(" obj: \n")
total = 0
for i in range(self.__n):
for j in range(i+1,self.__n):
if total == 4:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
total = 0
else:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
total = total + 1
# Insert Constraints
f.write("\nSubject To\n")
contraintID = 1
for i in range(self.__n):
for j in range(i+1,self.__n):
for k in range(j+1,self.__n):
# dij + djk - dik <= 1
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# dij - djk + dik <= 1
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# -dij + djk + dik <= 1
constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# Variables bounds
f.write("\nBounds\n")
for i in range(self.__n):
for j in range(i+1,self.__n):
bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n")
f.write("%s" % bounds)
# If ILP define variables as binaries
if(lp_problem==False):
f.write("\nBinaries\n")
total = 0
var_name = ""
for i in range(self.__n):
for j in range(i+1,self.__n):
total = total + 1
if total == 4:
var_name = var_name + (" v."+str(i)+"."+str(j)+"\n")
f.write("%s" % var_name)
total = 0
var_name = ""
else:
var_name = var_name + (" v."+str(i)+"."+str(j))
f.write("End\n")
f.close()
print("Model file created.")
def saveRMalpha(self,filename,lp_problem=False):
""""Save Alpha Model (RMalpha0)
Save the Alpha model proposed by Miyauchi and Sukegawa[1] in LP file format.
[1] Miyauchi, Atsushi, and Noriyoshi Sukegawa.
"Redundant constraints in the standard formulation for the clique partitioning problem."
Optimization Letters 9.1 (2015): 199-207.
Args:
filename (str): The path to save the LP file.
lp_problem (bool,optional): If True save it as Linear Programming instead of ILP.
Returns:
Nothing.
"""
cut = 0
# Create LP
print ("Creating Model file...")
filename = filename + "(RMalpha0).lp"
f = open(filename, 'w')
f.write("\ENCODING=ISO-8859-1\n")
f.write("\Problem name: RMalpha0 model\n\n")
f.write("Maximize\n")
f.write(" obj: \n")
total = 0
for i in range(self.__n):
for j in range(i+1,self.__n):
if total == 4:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
total = 0
else:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
total = total + 1
# Insert Constraints
f.write("\nSubject To\n")
contraintID = 1
for i in range(self.__n):
for j in range(i+1,self.__n):
for k in range(j+1,self.__n):
# dij + djk - dik <= 1
if (self.__S[i][j] >= cut or self.__S[j][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# dij - djk + dik <= 1
if (self.__S[i][j] >= cut or self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# -dij + djk + dik <= 1
if (self.__S[j][k] >= cut or self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
f.write("Bounds\n")
for i in range(self.__n):
for j in range(i+1,self.__n):
bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n")
f.write("%s" % bounds)
if(lp_problem==False):
f.write("Binaries\n")
total = 0
var_name = ""
for i in range(self.__n):
for j in range(i+1,self.__n):
total = total + 1
if total == 4:
var_name = var_name + (" v."+str(i)+"."+str(j)+"\n")
f.write("%s" % var_name)
total = 0
var_name = ""
else:
var_name = var_name + (" v."+str(i)+"."+str(j))
f.write("End\n")
f.close()
print("Model file created.")
def saveRMalphaPlus(self,filename,lp_problem=False,debug=False):
""""Save Alpha Plus Model (RMalpha+)
Save the Alpha Plus model proposed as extension to the (RMalpha) proposed by Miyauchi and Sukegawa[1].
[1] Miyauchi, Atsushi, and Noriyoshi Sukegawa.
"Redundant constraints in the standard formulation for the clique partitioning problem."
Optimization Letters 9.1 (2015): 199-207.
Args:
filename (str): The path to save the LP file.
lp_problem (bool,optional): If True save it as Linear Programming instead of ILP.
debug (bool,optional): If True shows heuristic debug information.
Returns:
Nothing.
"""
heuristic = self.__findPositiveCut(debug=debug)
cut = heuristic['cut']
# Create LP
print ("Creating Model file...")
filename = filename + "(RMalpha+).lp"
f = open(filename, 'w')
f.write("\ENCODING=ISO-8859-1\n")
f.write("\Problem name: RMalpha+ model\n\n")
f.write("Maximize\n")
f.write(" obj: \n")
total = 0
for i in range(self.__n):
for j in range(i+1,self.__n):
if total == 4:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
total = 0
else:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
total = total + 1
# Insert Constraints
f.write("\nSubject To\n")
contraintID = 1
for i in range(self.__n):
for j in range(i+1,self.__n):
for k in range(j+1,self.__n):
# dij + djk - dik <= 1
if (self.__S[i][j] >= cut or self.__S[j][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# dij - djk + dik <= 1
if (self.__S[i][j] >= cut or self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# -dij + djk + dik <= 1
if (self.__S[j][k] >= cut or self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
f.write("Bounds\n")
for i in range(self.__n):
for j in range(i+1,self.__n):
bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n")
f.write("%s" % bounds)
if(lp_problem==False):
f.write("Binaries\n")
total = 0
var_name = ""
for i in range(self.__n):
for j in range(i+1,self.__n):
total = total + 1
if total == 4:
var_name = var_name + (" v."+str(i)+"."+str(j)+"\n")
f.write("%s" % var_name)
total = 0
var_name = ""
else:
var_name = var_name + (" v."+str(i)+"."+str(j))
f.write("End\n")
f.close()
print("Model file created.")
def saveRMbeta(self,filename,lp_problem=False):
""""Save Beta Model (RMbeta0)
Save the Beta model proposed by Miyauchi and Sukegawa[1] in LP file format.
[1] Miyauchi, Atsushi, and Noriyoshi Sukegawa.
"Redundant constraints in the standard formulation for the clique partitioning problem."
Optimization Letters 9.1 (2015): 199-207.
Args:
filename (str): The path to save the LP file.
lp_problem (bool,optional): If True save it as Linear Programming instead of ILP.
Returns:
Nothing.
"""
cut = 0
# Create LP
print ("Creating Model file...")
filename = filename + "(RMbeta0).lp"
f = open(filename, 'w')
f.write("\ENCODING=ISO-8859-1\n")
f.write("\Problem name: RMbeta model\n\n")
f.write("Maximize\n")
f.write(" obj: \n")
total = 0
for i in range(self.__n):
for j in range(i+1,self.__n):
if total == 4:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
total = 0
else:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
total = total + 1
# Insert Constraints
f.write("\nSubject To\n")
contraintID = 1
for i in range(self.__n):
for j in range(i+1,self.__n):
for k in range(j+1,self.__n):
# dij + djk - dik <= 1
if (self.__S[i][j] + self.__S[j][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# dij - djk + dik <= 1
if (self.__S[i][j] + self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# -dij + djk + dik <= 1
if (self.__S[j][k] + self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
f.write("Bounds\n")
for i in range(self.__n):
for j in range(i+1,self.__n):
bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n")
f.write("%s" % bounds)
if(lp_problem==False):
f.write("Binaries\n")
total = 0
var_name = ""
for i in range(self.__n):
for j in range(i+1,self.__n):
total = total + 1
if total == 4:
var_name = var_name + (" v."+str(i)+"."+str(j)+"\n")
f.write("%s" % var_name)
total = 0
var_name = ""
else:
var_name = var_name + (" v."+str(i)+"."+str(j))
f.write("End\n")
f.close()
print("Model file created.")
def saveRMbetaPlus(self,filename,lp_problem=False,debug=False):
""""Save Beta Plus Model (RMbeta+)
Save the Beta Plus model proposed as extension to the (RMbeta) proposed by Miyauchi and Sukegawa[1].
[1] Miyauchi, Atsushi, and Noriyoshi Sukegawa.
"Redundant constraints in the standard formulation for the clique partitioning problem."
Optimization Letters 9.1 (2015): 199-207.
Args:
filename (str): The path to save the LP file.
lp_problem (bool,optional): If True save it as Linear Programming instead of ILP.
debug (bool,optional): If True shows heuristic debug information.
Returns:
Nothing.
"""
heuristic = self.__findPositiveCut(debug=debug)
cut = heuristic['cut']
# Create LP
print ("Creating Model file...")
filename = filename + "(RMbeta+).lp"
f = open(filename, 'w')
f.write("\ENCODING=ISO-8859-1\n")
f.write("\Problem name: RMbeta+ model\n\n")
f.write("Maximize\n")
f.write(" obj: \n")
total = 0
for i in range(self.__n):
for j in range(i+1,self.__n):
if total == 4:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
total = 0
else:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
total = total + 1
# Insert Constraints
f.write("\nSubject To\n")
contraintID = 1
for i in range(self.__n):
for j in range(i+1,self.__n):
for k in range(j+1,self.__n):
# dij + djk - dik <= 1
if (self.__S[i][j] + self.__S[j][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# dij - djk + dik <= 1
if (self.__S[i][j] + self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# -dij + djk + dik <= 1
if (self.__S[j][k] + self.__S[i][k] >= cut):
constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
f.write("Bounds\n")
for i in range(self.__n):
for j in range(i+1,self.__n):
bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n")
f.write("%s" % bounds)
if(lp_problem==False):
f.write("Binaries\n")
total = 0
var_name = ""
for i in range(self.__n):
for j in range(i+1,self.__n):
total = total + 1
if total == 4:
var_name = var_name + (" v."+str(i)+"."+str(j)+"\n")
f.write("%s" % var_name)
total = 0
var_name = ""
else:
var_name = var_name + (" v."+str(i)+"."+str(j))
f.write("End\n")
f.close()
print("Model file created.")
def saveRMgamma(self,filename,lp_problem=False,debug=False):
""""Save Gamma Model (RMgamma)
Save the Gamma model proposed to extend the models proposed by Miyauchi and Sukegawa[1].
[1] Miyauchi, Atsushi, and Noriyoshi Sukegawa.
"Redundant constraints in the standard formulation for the clique partitioning problem."
Optimization Letters 9.1 (2015): 199-207.
Args:
filename (str): The path to save the LP file.
lp_problem (bool,optional): If True save it as Linear Programming instead of ILP.
debug (bool,optional): If True shows heuristic debug information.
Returns:
Nothing.
"""
# Calculate best gamma
heuristic = self.__findNegativeCut(debug=debug)
gamma = heuristic['cut']
# Create LP
print ("Creating Model file...")
filename = filename + "(RMgamma).lp"
f = open(filename, 'w')
f.write("\ENCODING=ISO-8859-1\n")
f.write("\Problem name: RMgamma model\n\n")
f.write("Maximize\n")
f.write(" obj: \n")
total = 0
for i in range(self.__n):
for j in range(i+1,self.__n):
if total == 4:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j)+" \n")
f.write("%s" % var_name)
total = 0
else:
if self.__S[i][j] >= 0:
var_name = (" + " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
else:
var_name = (" - " + str(abs(self.__S[i][j])) + " v."+str(i)+"."+str(j))
f.write("%s" % var_name)
total = total + 1
# Insert Constraints
f.write("\nSubject To\n")
contraintID = 1
for i in range(self.__n):
for j in range(i+1,self.__n):
for k in range(j+1,self.__n):
# dij + djk - dik <= 1
if (self.__S[i][j] >= 0 and self.__S[j][k] >= gamma and self.__S[i][k] <= 0):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" - v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# dij - djk + dik <= 1
if (self.__S[i][j] >= 0 and self.__S[j][k] <= 0 and self.__S[i][k] >= gamma):
constraint = (" c" +str(contraintID) + ": v."+str(i)+"."+str(j)+" - v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
# -dij + djk + dik <= 1
if (self.__S[i][j] <= 0 and self.__S[j][k] >= gamma and self.__S[i][k] >= 0):
constraint = (" c" +str(contraintID) + ": - v."+str(i)+"."+str(j)+" + v."+str(j)+"."+str(k)+" + v."+str(i)+"."+str(k)+" <= 1\n")
f.write("%s" % constraint)
contraintID = contraintID + 1
f.write("Bounds\n")
for i in range(self.__n):
for j in range(i+1,self.__n):
bounds = (" 0 <= v."+str(i)+"."+str(j)+" <= 1\n")
f.write("%s" % bounds)
if(lp_problem==False):
f.write("Binaries\n")
total = 0
var_name = ""
for i in range(self.__n):
for j in range(i+1,self.__n):
total = total + 1
if total == 4:
var_name = var_name + (" v."+str(i)+"."+str(j)+"\n")
f.write("%s" % var_name)
total = 0
var_name = ""
else:
var_name = var_name + (" v."+str(i)+"."+str(j))
f.write("End\n")
f.close()
print("Model file created.")
def __findPositiveCut(self,debug=False):
"""Best positive cut heuristic.
Heuristic to find the best cut value to construct the Alpha Plus Model (RMalpha+).
Args:
debug (bool,optional): Show debug information.
Returns:
A Heuristic object that contains all the relevant info about the heuristic.
"""
time_total = time.time()
# Graph and unique set construction
time_graph_construction = time.time()
graph_positive = Graph()
graph_positive.add_vertices(self.__n)
unique_positive_weights = set()
for i in range(self.__n):
for j in range (i+1,self.__n):
if self.__S[i][j] >= 0:
graph_positive.add_edge(i,j,weight=self.__S[i][j])
unique_positive_weights.add(self.__S[i][j])
time_graph_construction = time.time() - time_graph_construction
# Sort unique weights and start heuristic to find the best cut value
time_find_best_cut = time.time()
unique_positive_weights = sorted(unique_positive_weights)
# Test different cuts and check connected
best_positive_cut = 0
for newCut in unique_positive_weights:
edges_to_delete = graph_positive.es.select(weight_lt=newCut)
graph_positive.delete_edges(edges_to_delete)
if graph_positive.is_connected():
best_positive_cut = newCut
else:
break
time_find_best_cut = time.time() - time_find_best_cut
time_total = time.time() - time_total
if debug==True:
print ("################################")
print ("# Heuristic debug info")
print ("################################")
print ("Time Graph Construction: %f" %(time_graph_construction))
print ("Time Heuristic to find best cut: %f" %(time_find_best_cut))
print ("Total Time: %f" %(time_total))
print ("NEW (Best cut+): %d" %(best_positive_cut))
print ("################################")
heuristic={}
heuristic['cut'] = best_positive_cut
heuristic['time_total']=time_total
heuristic['time_graph_construction']=time_graph_construction
heuristic['time_find_best_cut']=time_find_best_cut
return heuristic
def __findNegativeCut(self,debug=False):
"""Best negative cut heuristic.
Heuristic to find the best cut value to construct the Gamma Model (RMgamma).
Args:
debug (bool,optional): Show debug information.
Returns:
A Heuristic object that contains all the relevant info about the heuristic.
"""
time_total = time.time()
# Graph and unique set construction
time_graph_construction = time.time()
graph_negative = Graph()
graph_negative.add_vertices(self.__n)
unique_negative_weights = set()
for i in range(self.__n):
for j in range (i+1,self.__n):
if self.__S[i][j] <= 0:
graph_negative.add_edge(i,j,weight=self.__S[i][j])
unique_negative_weights.add(self.__S[i][j])
time_graph_construction = time.time() - time_graph_construction
# Sort unique weights and start heuristic to find the best cut value
time_find_best_cut = time.time()
unique_negative_weights = sorted(unique_negative_weights)
# Test different cuts and check connected
best_negative_cut = 0
for newCut in unique_negative_weights:
edges_to_delete = graph_negative.es.select(weight_lt=newCut)
graph_negative.delete_edges(edges_to_delete)
if graph_negative.is_connected():
best_negative_cut = newCut
else:
break
time_find_best_cut = time.time() - time_find_best_cut
time_total = time.time() - time_total
if debug==True:
print ("Time Graph Construction: %f" %(time_graph_construction))
print ("Time Heuristic to find best cut: %f" %(time_find_best_cut))
print ("Total Time: %f" %(time_total))
print ("NEW (Best cut-): %d" %(best_negative_cut))
heuristic={}
heuristic['cut'] = best_negative_cut
heuristic['time_total']=time_total
heuristic['time_graph_construction']=time_graph_construction
heuristic['time_find_best_cut']=time_find_best_cut
return heuristic
| 42.908136
| 153
| 0.431184
| 3,810
| 32,696
| 3.549081
| 0.062205
| 0.04526
| 0.028842
| 0.046147
| 0.845289
| 0.826209
| 0.807351
| 0.797885
| 0.778953
| 0.778953
| 0
| 0.015268
| 0.413047
| 32,696
| 761
| 154
| 42.96452
| 0.689334
| 0.163934
| 0
| 0.834971
| 0
| 0
| 0.091628
| 0.01067
| 0
| 0
| 0
| 0
| 0
| 1
| 0.017682
| false
| 0
| 0.005894
| 0
| 0.02947
| 0.047151
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
239016e61ac991ad886affdfc5c52afe78549960
| 1,203
|
py
|
Python
|
safe_transaction_service/history/indexers/decoder_abis/maker_dao.py
|
fmrsabino/safe-transaction-service
|
bafc7a7f76c282295efa8de19958185ef7773622
|
[
"MIT"
] | null | null | null |
safe_transaction_service/history/indexers/decoder_abis/maker_dao.py
|
fmrsabino/safe-transaction-service
|
bafc7a7f76c282295efa8de19958185ef7773622
|
[
"MIT"
] | null | null | null |
safe_transaction_service/history/indexers/decoder_abis/maker_dao.py
|
fmrsabino/safe-transaction-service
|
bafc7a7f76c282295efa8de19958185ef7773622
|
[
"MIT"
] | null | null | null |
import json
maker_dao_erc20_fee_proxy = json.loads('[{"anonymous":false,"inputs":[{"indexed":false,"internalType":"address","name":"tokenAddress","type":"address"},{"indexed":false,"internalType":"address","name":"to","type":"address"},{"indexed":false,"internalType":"uint256","name":"amount","type":"uint256"},{"indexed":true,"internalType":"bytes","name":"paymentReference","type":"bytes"},{"indexed":false,"internalType":"uint256","name":"feeAmount","type":"uint256"},{"indexed":false,"internalType":"address","name":"feeAddress","type":"address"}],"name":"TransferWithReferenceAndFee","type":"event"},{"payable":true,"stateMutability":"payable","type":"fallback"},{"constant":false,"inputs":[{"internalType":"address","name":"_tokenAddress","type":"address"},{"internalType":"address","name":"_to","type":"address"},{"internalType":"uint256","name":"_amount","type":"uint256"},{"internalType":"bytes","name":"_paymentReference","type":"bytes"},{"internalType":"uint256","name":"_feeAmount","type":"uint256"},{"internalType":"address","name":"_feeAddress","type":"address"}],"name":"transferFromWithReferenceAndFee","outputs":[],"payable":false,"stateMutability":"nonpayable","type":"function"}]')
| 300.75
| 1,189
| 0.703242
| 118
| 1,203
| 7.084746
| 0.29661
| 0.105263
| 0.165072
| 0.111244
| 0.691388
| 0.619617
| 0.114833
| 0
| 0
| 0
| 0
| 0.021721
| 0.004988
| 1,203
| 3
| 1,190
| 401
| 0.676692
| 0
| 0
| 0
| 0
| 0.5
| 0.95345
| 0.95345
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.5
| 0
| 0.5
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
|
0
| 7
|
239f9fe1ee4c6ddd8fe3c155a43b4daf2e3e6675
| 1,536
|
py
|
Python
|
labs/lab5/reinforcementlearning.py
|
MITLLRacecar/racecar-parth-kocheta
|
6e244575b83e312880c5540342a380364032d326
|
[
"MIT"
] | 1
|
2021-08-01T17:06:39.000Z
|
2021-08-01T17:06:39.000Z
|
labs/lab5/reinforcementlearning.py
|
MITLLRacecar/racecar-parth-kocheta
|
6e244575b83e312880c5540342a380364032d326
|
[
"MIT"
] | null | null | null |
labs/lab5/reinforcementlearning.py
|
MITLLRacecar/racecar-parth-kocheta
|
6e244575b83e312880c5540342a380364032d326
|
[
"MIT"
] | null | null | null |
import sys
import cv2 as cv
import numpy as np
sys.path.insert(0, "../../library")
import racecar_core
import racecar_utils as rc_utils
from racecar_utils import ARMarker
from enum import Enum, IntEnum
import random
rc = racecar_core.create_racecar()
speed = 0
angle = 0
lidar_arr = []
def start():
rc.drive.stop()
def update():
global lidar_arr
update_arr()
print (lidar_arr)
def train_net(model, state):
epsilon = 1
train_frames = 100000
observe = 1000
t = 0
distance = 0
while t < train_frames:
t += 1
distance +=1
if random.random() < epsilon or t < observe:
action = np.random.randint(0, 3)
else:
qval = model.predict(state, batch_size=1)
action = (np.argmax(qval))
#make it save the model every x frames
def update_arr():
scan = rc.lidar.get_samples()
for i in range (270, )
lidar_arr = rc_utils.get_lidar_average_distance(scan, i , 2.5)
import sys
import cv2 as cv
import numpy as np
sys.path.insert(0, "../../library")
import racecar_core
import racecar_utils as rc_utils
from racecar_utils import ARMarker
from enum import Enum, IntEnum
rc = racecar_core.create_racecar()
speed = 0
angle = 0
lidar_arr = []
def start():
rc.drive.stop()
def update():
global lidar_arr
update_arr()
print (lidar_arr)
def update_arr():
scan = rc.lidar.get_samples()
for i in range (270, )
lidar_arr = rc_utils.get_lidar_average_distance(scan, i , 2.5)
| 16.695652
| 66
| 0.651693
| 229
| 1,536
| 4.20524
| 0.318777
| 0.066459
| 0.045691
| 0.037383
| 0.748702
| 0.748702
| 0.748702
| 0.748702
| 0.748702
| 0.748702
| 0
| 0.03125
| 0.25
| 1,536
| 92
| 67
| 16.695652
| 0.804688
| 0.024089
| 0
| 0.745763
| 0
| 0
| 0.017345
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | null | 0
| 0.254237
| null | null | 0.033898
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
23a558f6a789aa8ee1b8281bc3beeffde1c47091
| 3,809
|
py
|
Python
|
GMATE/dialogs.py
|
lexrupy/gmate-editor
|
7036d58a083ad6c05c1eb4cf7cb92405b369adb7
|
[
"MIT"
] | 1
|
2016-05-09T11:48:44.000Z
|
2016-05-09T11:48:44.000Z
|
GMATE/dialogs.py
|
lexrupy/gmate-editor
|
7036d58a083ad6c05c1eb4cf7cb92405b369adb7
|
[
"MIT"
] | null | null | null |
GMATE/dialogs.py
|
lexrupy/gmate-editor
|
7036d58a083ad6c05c1eb4cf7cb92405b369adb7
|
[
"MIT"
] | null | null | null |
# -*- coding: utf-8 -*-
# GMate - Plugin Based Programmer's Text Editor
# Copyright © 2008-2009 Alexandre da Silva
#
# This file is part of Gmate.
#
# See LICENTE.TXT for licence information
import gtk
import gnomevfs
from GMATE import files
from GMATE import i18n as i
def error(message):
"""Displays on error dialog with a single stock OK button."""
dialog = gtk.MessageDialog(None,
gtk.DIALOG_MODAL,
gtk.MESSAGE_ERROR,
gtk.BUTTONS_OK,
message)
response = dialog.run()
dialog.destroy()
def choice_ok_cancel(message, cancelDefault=False):
"""Displays an ok/cancel message dialog."""
default = gtk.RESPONSE_OK
if cancelDefault:
default = gtk.RESPONSE_CANCEL
dialog = gtk.MessageDialog(None,
gtk.DIALOG_MODAL,
gtk.MESSAGE_QUESTION,
gtk.BUTTONS_OK_CANCEL,
message)
dialog.set_default_response(default)
response = dialog.run()
dialog.destroy()
return response
def choice_yes_no(message, noDefault=False):
"""Displays an yes/no message dialog."""
default = gtk.RESPONSE_YES
if noDefault:
default = gtk.RESPONSE_NO
dialog = gtk.MessageDialog(None,
gtk.DIALOG_MODAL,
gtk.MESSAGE_QUESTION,
gtk.BUTTONS_YES_NO,
message)
dialog.set_default_response(default)
response = dialog.run()
dialog.destroy()
return response
def retrieve_new_file_name(uri=None):
"""Get the name of a file to create."""
dialog = gtk.FileChooserDialog(action=gtk.FILE_CHOOSER_ACTION_SAVE)
dialog.add_buttons(gtk.STOCK_CANCEL, gtk.RESPONSE_CANCEL,
gtk.STOCK_ADD, gtk.RESPONSE_OK)
# Default to the users home directory
if uri is None:
uri = files.get_user_home_uri()
dialog.set_current_folder_uri(str(uri))
# Get the response and the URI
response = dialog.run()
file_uri = dialog.get_uri()
dialog.destroy()
if response == gtk.RESPONSE_OK:
if file_uri is not None:
write = True
# Check to be sure if the user wants to overwrite a file
if gnomevfs.exists(file_uri):
response = choice_yes_no(i.file_already_exists, True)
if response == gtk.RESPONSE_NO:
write = False
if write:
# Return the new filename
return file_uri
else:
raise IOError, i.no_file_specified
return None
def retrieve_new_file_name(uri=None):
"""Get the name of a file to create."""
dialog = gtk.FileChooserDialog(action=gtk.FILE_CHOOSER_ACTION_SAVE)
dialog.add_buttons(gtk.STOCK_CANCEL, gtk.RESPONSE_CANCEL,
gtk.STOCK_SAVE, gtk.RESPONSE_OK)
# Default to the users home directory
if uri is None:
uri = files.get_user_home_uri()
dialog.set_current_folder_uri(str(uri))
# Get the response and the URI
response = dialog.run()
file_uri = dialog.get_uri()
dialog.destroy()
if response == gtk.RESPONSE_OK:
if file_uri is not None:
write = True
# Check to be sure if the user wants to overwrite a file
if gnomevfs.exists(file_uri):
response = choice_yes_no(i.file_already_exists, True)
if response == gtk.RESPONSE_NO:
write = False
if write:
# Return the new filename
return file_uri
else:
raise IOError, i.no_file_specified
return None
| 34.315315
| 71
| 0.589656
| 459
| 3,809
| 4.714597
| 0.22658
| 0.060998
| 0.039279
| 0.038817
| 0.774954
| 0.73244
| 0.73244
| 0.73244
| 0.73244
| 0.709335
| 0
| 0.004356
| 0.337096
| 3,809
| 110
| 72
| 34.627273
| 0.852277
| 0.121817
| 0
| 0.768293
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | null | 0
| 0.04878
| null | null | 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
23a81c02c1c28ed0cf4db8f5169ca92cf6510372
| 27
|
py
|
Python
|
utokenize/testdata/no_nl2.py
|
AEMICS/pycopy-lib
|
56f4436123e30be9928662361098a71cae82eecc
|
[
"PSF-2.0"
] | 126
|
2019-07-19T14:42:41.000Z
|
2022-03-21T22:22:19.000Z
|
utokenize/testdata/no_nl2.py
|
AEMICS/pycopy-lib
|
56f4436123e30be9928662361098a71cae82eecc
|
[
"PSF-2.0"
] | 38
|
2019-08-28T01:46:31.000Z
|
2022-03-17T05:46:51.000Z
|
utokenize/testdata/no_nl2.py
|
AEMICS/pycopy-lib
|
56f4436123e30be9928662361098a71cae82eecc
|
[
"PSF-2.0"
] | 55
|
2019-08-02T09:32:33.000Z
|
2021-12-22T11:25:51.000Z
|
if 1:
if 2:
123
| 9
| 11
| 0.333333
| 5
| 27
| 1.8
| 0.8
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.454545
| 0.592593
| 27
| 3
| 11
| 9
| 0.363636
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 1
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
f1a0981dfa0e11dd31536732e46f44452840544b
| 961
|
py
|
Python
|
EdwinEngine/led_indicators.py
|
Alexander1022/EdwinProject
|
ae347be9bf3c2886975096c61c98c69d143ae0a3
|
[
"MIT"
] | 1
|
2020-12-08T18:14:40.000Z
|
2020-12-08T18:14:40.000Z
|
EdwinEngine/led_indicators.py
|
Alexander1022/EdwinProject
|
ae347be9bf3c2886975096c61c98c69d143ae0a3
|
[
"MIT"
] | null | null | null |
EdwinEngine/led_indicators.py
|
Alexander1022/EdwinProject
|
ae347be9bf3c2886975096c61c98c69d143ae0a3
|
[
"MIT"
] | null | null | null |
import RPi.GPIO as GPIO
import time
GPIO.setmode(GPIO.BCM)
GPIO.setwarnings(False)
GPIO.setup(17, GPIO.OUT, initial=GPIO.LOW)
GPIO.setup(27, GPIO.OUT, initial=GPIO.LOW)
GPIO.setup(22, GPIO.OUT, initial=GPIO.LOW)
def startup():
GPIO.output(17, GPIO.HIGH)
time.sleep(0.2)
GPIO.output(17, GPIO.LOW)
GPIO.output(27, GPIO.HIGH)
time.sleep(0.2)
GPIO.output(27, GPIO.LOW)
GPIO.output(22, GPIO.HIGH)
time.sleep(0.2)
GPIO.output(22, GPIO.LOW)
time.sleep(0.2)
GPIO.output(22, GPIO.HIGH)
time.sleep(0.2)
GPIO.output(22, GPIO.LOW)
GPIO.output(27, GPIO.HIGH)
time.sleep(0.2)
GPIO.output(27, GPIO.LOW)
GPIO.output(17, GPIO.HIGH)
time.sleep(0.2)
GPIO.output(17, GPIO.LOW)
time.sleep(0.2)
def problem():
GPIO.output(22, GPIO.HIGH)
time.sleep(0.5)
GPIO.output(22, GPIO.LOW)
time.sleep(0.5)
GPIO.output(22, GPIO.HIGH)
time.sleep(0.5)
GPIO.output(22, GPIO.LOW)
def success():
GPIO.output(17, GPIO.HIGH)
time.sleep(2)
GPIO.output(17, GPIO.LOW)
| 21.355556
| 42
| 0.702393
| 181
| 961
| 3.729282
| 0.143646
| 0.266667
| 0.162963
| 0.226667
| 0.834074
| 0.802963
| 0.757037
| 0.625185
| 0.592593
| 0.592593
| 0
| 0.076202
| 0.112383
| 961
| 44
| 43
| 21.840909
| 0.715123
| 0
| 0
| 0.725
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.075
| true
| 0
| 0.05
| 0
| 0.125
| 0
| 0
| 0
| 0
| null | 1
| 0
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
f1b8de4eb579b151c8ae80e1a9d12fa95d99d048
| 8,982
|
py
|
Python
|
basic_knowledge/json_demo.py
|
lucid-lynxz/PythonDemos
|
5affed1fd7989e1cedecaa1ee673a0d418231891
|
[
"Apache-2.0"
] | 3
|
2018-09-11T07:32:16.000Z
|
2021-01-19T09:05:56.000Z
|
basic_knowledge/json_demo.py
|
lucid-lynxz/PythonDemos
|
5affed1fd7989e1cedecaa1ee673a0d418231891
|
[
"Apache-2.0"
] | null | null | null |
basic_knowledge/json_demo.py
|
lucid-lynxz/PythonDemos
|
5affed1fd7989e1cedecaa1ee673a0d418231891
|
[
"Apache-2.0"
] | null | null | null |
#!/usr/local/bin/python3.5
# -*- coding: utf-8 -*-
'''
json序列化和反序列化
'''
import json
d = dict(name='lynxz', age=29)
print(json.dumps(d))
json_str = '{"age": 20, "score": 88, "name": "Bob","data":{"name":"lynxz"}}'
obj = json.loads(json_str) # 反序列化
print(obj['age']) # 20
result = 'https://www.pgyer.com/%s' % obj['data']['name']
print(result)
# 将json数据转传成一个的python object,而非上面的map
from collections import namedtuple
data = '{"sta":[{"cod":"0","des":""}],"ext":[{"pk":"扩展信息"}],"datas":[{"systemid":"BFC4829D-7219-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号202室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"202室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"202室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-03-09 10:42:10","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-E082-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号303室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"303室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"303室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-03-09 17:22:35","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DBBD-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号508室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"508室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"508室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-04-26 16:42:06","hsqk":"已核实","times":"3","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC4828D-2B65-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号206室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"206室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"206室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-06-30 11:49:46","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DBBF-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路786号403室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"786号","haozuo_no":"786","haozuo_extra":"","haozuo_detail":"403室","building_id":"","building_name":"","seat_id":"350200110000003422095","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"403室","mapx":"118.10219188","mapy":"24.46534375","hssj":"2017-03-13 09:31:36","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DC9A-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路788号407室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"788号","haozuo_no":"788","haozuo_extra":"","haozuo_detail":"407室","building_id":"","building_name":"","seat_id":"350200110000003422099","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"407室","mapx":"118.10240486","mapy":"24.46552125","hssj":"2017-07-13 10:12:06","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC4828C-C9D0-00EE-E043-0A82290600EE","all_full_addr":"思明区厦禾路788号403室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"788号","haozuo_no":"788","haozuo_extra":"","haozuo_detail":"403室","building_id":"","building_name":"","seat_id":"350200110000003422099","seat_name":"","toponym":"厦禾路","toponym_id":"350200110000000005289","room":"403室","mapx":"118.10240486","mapy":"24.46552125","hssj":"2017-03-09 21:05:56","hsqk":"已核实","times":"5","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DA88-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路1号106室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"1号","haozuo_no":"1","haozuo_extra":"","haozuo_detail":"106室","building_id":"","building_name":"","seat_id":"350200110000000559860","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"106室","mapx":"118.10229746","mapy":"24.4651675","hssj":"2017-06-28 09:20:37","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DAE5-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路1号507室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"1号","haozuo_no":"1","haozuo_extra":"","haozuo_detail":"507室","building_id":"","building_name":"","seat_id":"350200110000000559860","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"507室","mapx":"118.10229746","mapy":"24.4651675","hssj":"2017-07-11 17:02:16","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-DAE9-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路3号201室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"3号","haozuo_no":"3","haozuo_extra":"","haozuo_detail":"201室","building_id":"","building_name":"","seat_id":"350200110000003423289","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"201室","mapx":"118.10252358","mapy":"24.46517228","hssj":"2017-07-13 17:04:53","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-D614-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路3号505室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"3号","haozuo_no":"3","haozuo_extra":"","haozuo_detail":"505室","building_id":"","building_name":"","seat_id":"350200110000003423289","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"505室","mapx":"118.10252358","mapy":"24.46517228","hssj":"2017-07-13 17:08:13","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"},{"systemid":"BFC48288-D619-00EE-E043-0A82290600EE","all_full_addr":"思明区文塔路5号502室","dztype":"fwxc","qu":"福建省厦门市思明区","qu_id":"350203","xzjd":"开元街道","xzjd_id":"350203004","quxcun":"开元街道西边社区","quxcun_id":"350203004015","org_name":"厦门市公安局开元派出所","org_id":"350203106000","haozuo":"5号","haozuo_no":"5","haozuo_extra":"","haozuo_detail":"502室","building_id":"","building_name":"","seat_id":"350200110000002071597","seat_name":"","toponym":"文塔路","toponym_id":"350200110000000003576","room":"502室","mapx":"118.10229811","mapy":"24.46484161","hssj":"2017-07-12 21:39:50","hsqk":"已核实","times":"1","mlpsxdm":"","ishouse":"否","property":"启用","islog":"否","zxbz":"0","seat_cou":"0"}],"pages":[{"tsize":"6768","pnum":"564"}]}'
# data = '{"sta":[{"cod":"0","des":""}],"ext":[{"pk":"扩展信息"}],"name": "John Smith", "hometown": {"name": "北京New York", "id": 123}}'
# Parse JSON into an object with attributes corresponding to dict keys.
x = json.loads(data, object_hook=lambda d: namedtuple('X', d.keys())(*d.values()))
print(len(x.sta),x.pages)
# print(len(x.sta), x.name, x.hometown.name, x.hometown.id)
num = ""
num1 = num or "ass"
print(num1)
| 289.741935
| 8,144
| 0.676687
| 1,197
| 8,982
| 4.914787
| 0.183793
| 0.016318
| 0.040796
| 0.046915
| 0.825939
| 0.82152
| 0.753527
| 0.753527
| 0.700663
| 0.695224
| 0
| 0.212586
| 0.012803
| 8,982
| 31
| 8,145
| 289.741935
| 0.450885
| 0.040303
| 0
| 0
| 0
| 0.133333
| 0.957588
| 0.947246
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.133333
| 0
| 0.133333
| 0.333333
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 1
| 0
| 0
| 0
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 12
|
f1db39d9fcc9b0d54d84fdaec66f71f10ba26465
| 6,919
|
py
|
Python
|
czsc/ClPubSub/producer.py
|
newlyedward/czsc
|
7b87298a09d2f317afbd9552b001a433f8954c78
|
[
"MIT"
] | null | null | null |
czsc/ClPubSub/producer.py
|
newlyedward/czsc
|
7b87298a09d2f317afbd9552b001a433f8954c78
|
[
"MIT"
] | null | null | null |
czsc/ClPubSub/producer.py
|
newlyedward/czsc
|
7b87298a09d2f317afbd9552b001a433f8954c78
|
[
"MIT"
] | null | null | null |
#!/usr/bin/env python 3
import pika
from czsc.ClPubSub.base import BasePubSub
from czsc.ClPubSub.setting import pubsub_ip, pubsub_port, pubsub_user, pubsub_password
class Publisher(BasePubSub):
def __init__(self, host=pubsub_ip, port=pubsub_port, user=pubsub_user, password=pubsub_password,
channel_number=1, queue_name='', routing_key='default',
exchange='', exchange_type='fanout', vhost='/', durable=False):
super().__init__(host, port, user, password, channel_number,
queue_name, routing_key, exchange, exchange_type, vhost)
self.channel.queue_declare(
self.queue_name, auto_delete=True, exclusive=True)
self.channel.exchange_declare(exchange=exchange,
exchange_type='fanout',
passive=False,
durable=durable,
auto_delete=False)
self.routing_key = routing_key
def pub(self, text):
# channel.basic_publish向队列中发送信息
# exchange -- 它使我们能够确切地指定消息应该到哪个队列去。
# routing_key 指定向哪个队列中发送消息
# body是要插入的内容, 字符串格式
if isinstance(text, bytes):
content_type = 'text/plain'
elif isinstance(text, str):
content_type = 'text/plain'
elif isinstance(text, dict):
content_type = 'application/json'
try:
self.channel.basic_publish(exchange=self.exchange,
routing_key=self.routing_key,
body=text,
properties=pika.BasicProperties(content_type=content_type,
delivery_mode=1))
except Exception as e:
print(e)
self.reconnect().channel.basic_publish(exchange=self.exchange,
routing_key=self.routing_key,
body=text,
properties=pika.BasicProperties(content_type=content_type,
delivery_mode=1))
def exit(self):
self.connection.close()
class PublisherRouting(BasePubSub):
def __init__(self, host=pubsub_ip, port=pubsub_port, user=pubsub_user, password=pubsub_password,
channel_number=1, queue_name='', routing_key='default',
exchange='', exchange_type='direct', vhost='/', durable=False):
super().__init__(host, port, user, password, channel_number,
queue_name, routing_key, exchange, exchange_type, vhost)
self.routing_key = routing_key
self.channel.queue_declare(
self.queue_name, auto_delete=True, exclusive=True)
self.channel.exchange_declare(exchange=exchange,
exchange_type=exchange_type,
passive=False,
durable=durable,
auto_delete=False)
def pub(self, text, routing_key):
# channel.basic_publish向队列中发送信息
# exchange -- 它使我们能够确切地指定消息应该到哪个队列去。
# routing_key 指定向哪个队列中发送消息
# body是要插入的内容, 字符串格式
if isinstance(text, bytes):
content_type = 'text/plain'
elif isinstance(text, str):
content_type = 'text/plain'
elif isinstance(text, dict):
content_type = 'application/json'
try:
self.channel.basic_publish(exchange=self.exchange,
routing_key=routing_key,
body=text,
properties=pika.BasicProperties(content_type=content_type,
delivery_mode=1))
except Exception as e:
print(e)
self.reconnect().channel.basic_publish(exchange=self.exchange,
routing_key=routing_key,
body=text,
properties=pika.BasicProperties(content_type=content_type,
delivery_mode=1))
def exit(self):
self.connection.close()
class PublisherTopic(BasePubSub):
def __init__(self, host=pubsub_ip, port=pubsub_port, user=pubsub_user, password=pubsub_password,
channel_number=1, queue_name='', routing_key='default',
exchange='', exchange_type='topic', vhost='/', durable=False):
super().__init__(host, port, user, password, channel_number,
queue_name, routing_key, exchange, exchange_type, vhost)
self.routing_key = routing_key
self.channel.queue_declare(
self.queue_name, auto_delete=True, exclusive=True)
self.channel.exchange_declare(exchange=exchange,
exchange_type=exchange_type,
passive=False,
durable=durable,
auto_delete=False)
def pub(self, text, routing_key):
# channel.basic_publish向队列中发送信息
# exchange -- 它使我们能够确切地指定消息应该到哪个队列去。
# routing_key 指定向哪个队列中发送消息
# body是要插入的内容, 字符串格式
if isinstance(text, bytes):
content_type = 'text/plain'
elif isinstance(text, str):
content_type = 'text/plain'
elif isinstance(text, dict):
content_type = 'application/json'
try:
self.channel.basic_publish(exchange=self.exchange,
routing_key=routing_key,
body=text,
properties=pika.BasicProperties(content_type=content_type,
delivery_mode=1))
except Exception as e:
print(e)
self.reconnect().channel.basic_publish(exchange=self.exchange,
routing_key=routing_key,
body=text,
properties=pika.BasicProperties(content_type=content_type,
delivery_mode=1))
def exit(self):
self.connection.close()
if __name__ == '__main__':
import datetime
p = Publisher(exchange='z3')
while True:
print(1)
p.pub('{}'.format(datetime.datetime.now()))
| 47.068027
| 109
| 0.506865
| 593
| 6,919
| 5.659359
| 0.151771
| 0.086412
| 0.053635
| 0.041716
| 0.910012
| 0.902861
| 0.902861
| 0.890644
| 0.890644
| 0.890644
| 0
| 0.002967
| 0.415378
| 6,919
| 146
| 110
| 47.390411
| 0.8267
| 0.050441
| 0
| 0.854701
| 0
| 0
| 0.025469
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.076923
| false
| 0.08547
| 0.034188
| 0
| 0.136752
| 0.034188
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
|
0
| 8
|
9e2b5e09d81f88d96de821e06cba28890f99223a
| 10,586
|
py
|
Python
|
scripts/artifacts/screentimeAll.py
|
xperylabhub/iLEAPP
|
fd1b301bf2094387f51ccdbd10ed233ce9abd687
|
[
"MIT"
] | null | null | null |
scripts/artifacts/screentimeAll.py
|
xperylabhub/iLEAPP
|
fd1b301bf2094387f51ccdbd10ed233ce9abd687
|
[
"MIT"
] | 1
|
2021-01-16T05:32:40.000Z
|
2021-01-16T05:32:40.000Z
|
scripts/artifacts/screentimeAll.py
|
xperylabhub/iLEAPP
|
fd1b301bf2094387f51ccdbd10ed233ce9abd687
|
[
"MIT"
] | null | null | null |
import glob
import os
import pathlib
import plistlib
import sqlite3
import scripts.artifacts.artGlobals #use to get iOS version -> iOSversion = scripts.artifacts.artGlobals.versionf
from packaging import version #use to search per version number
from scripts.artifact_report import ArtifactHtmlReport
from scripts.ilapfuncs import logfunc, tsv, is_platform_windows, open_sqlite_db_readonly
def get_screentimeAll(files_found, report_folder, seeker):
file_found = str(files_found[0])
db = open_sqlite_db_readonly(file_found)
iOSversion = scripts.artifacts.artGlobals.versionf
if version.parse(iOSversion) < version.parse("12"):
logfunc("Unsupported version for Screentime App by Hour on iOS " + iOSversion)
return ()
if version.parse(iOSversion) >= version.parse("13"):
cursor = db.cursor()
cursor.execute('''
select
datetime(zusageblock.zstartdate+978307200,'unixepoch'),
zusagetimeditem.zbundleidentifier,
zusagetimeditem.zdomain,
case zusagecategory.zidentifier
when 'DH0011' then 'unspecified1'
when 'DH0012' then 'unspecified2'
when 'DH0013' then 'unspecified3'
when 'DH1001' then 'games'
when 'DH1002' then 'social networking'
when 'DH1003' then 'entertainment'
when 'DH1004' then 'creativity'
when 'DH1005' then 'productivity'
when 'DH1006' then 'education'
when 'DH1007' then 'reading & reference'
when 'DH1008' then 'health & fitness'
when 'DH1009' then 'other'
else zusagecategory.zidentifier
end,
zusagetimeditem.ztotaltimeinseconds,
zusagetimeditem.ztotaltimeinseconds/60.00,
zusageblock.znumberofpickupswithoutapplicationusage,
zcoredevice.zname,
case zcoredevice.zplatform
when 0 then 'unknown'
when 1 then 'macos'
when 2 then 'ios'
when 4 then 'apple watch'
else zplatform
end,
zcoreuser.zgivenname as 'given name',
zcoreuser.zfamilyname as 'family name',
zcoreuser.zfamilymembertype
from zusagetimeditem, zusagecategory, zusageblock, zusage, zcoreuser, zcoredevice
where zusagecategory.z_pk = zusagetimeditem.zcategory
and zusagecategory.zblock = zusageblock.z_pk
and zusageblock.zusage = zusage.z_pk
and zusage.zuser = zcoreuser.z_pk
and zusage.zdevice = zcoredevice.z_pk
''')
else:
cursor = db.cursor()
cursor.execute('''
select
datetime(zusageblock.zstartdate+978307200,'unixepoch'),
zusagetimeditem.zbundleidentifier,
zusagetimeditem.zdomain,
case zusagecategory.zidentifier
when 'DH0011' then 'unspecified1'
when 'DH0012' then 'unspecified2'
when 'DH0013' then 'unspecified3'
when 'DH1001' then 'games'
when 'DH1002' then 'social networking'
when 'DH1003' then 'entertainment'
when 'DH1004' then 'creativity'
when 'DH1005' then 'productivity'
when 'DH1006' then 'education'
when 'DH1007' then 'reading & reference'
when 'DH1008' then 'health & fitness'
when 'DH1009' then 'other'
else zusagecategory.zidentifier
end,
zusagetimeditem.ztotaltimeinseconds,
zusagetimeditem.ztotaltimeinseconds/60.00,
zusageblock.znumberofpickupswithoutapplicationusage,
zcoredevice.zname,
zcoredevice.zlocaluserdevicestate,
zcoreuser.zgivenname,
zcoreuser.zfamilyname
from zusagetimeditem, zusagecategory, zusageblock, zusage, zcoreuser, zcoredevice
where zusagecategory.z_pk = zusagetimeditem.zcategory
and zusagecategory.zblock = zusageblock.z_pk
and zusageblock.zusage = zusage.z_pk
and zusage.zuser = zcoreuser.z_pk
and zusage.zdevice = zcoredevice.z_pk
''')
all_rows = cursor.fetchall()
usageentries = len(all_rows)
if usageentries > 0:
data_list = []
if version.parse(iOSversion) >= version.parse("13"):
for row in all_rows:
data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10],row[11]))
report = ArtifactHtmlReport('Screentime Timed Items')
report.start_artifact_report(report_folder, 'Timed Items')
report.add_script()
data_headers = ('Hour','Bundle ID','Domain','Category ID', 'App Usage Time Item in Seconds','App Usage Time Item in Minutes','Number of Pickpus w/o App Usage','Name','Platform','Given Name','Family Name','Family Member Type')
report.write_artifact_data_table(data_headers, data_list, file_found)
report.end_artifact_report()
tsvname = 'Screentime Timed Items'
tsv(report_folder, data_headers, data_list, tsvname)
else:
for row in all_rows:
data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10]))
report = ArtifactHtmlReport('Screentime Timed Items')
report.start_artifact_report(report_folder, 'Timed Items')
report.add_script()
data_headers = ('Hour','Bundle ID','Domain','Category ID', 'App Usage Time Item in Seconds','App Usage Time Item in Minutes','Number of Pickpus w/o App Usage','Name','Local User Device State','Given Name','Family Name')
report.write_artifact_data_table(data_headers, data_list, file_found)
report.end_artifact_report()
tsvname = 'Screentime Timed Items'
tsv(report_folder, data_headers, data_list, tsvname)
else:
logfunc('No data available in table foe Screentime Timed Items')
if version.parse(iOSversion) >= version.parse("13"):
cursor = db.cursor()
cursor.execute('''
select
datetime(zusageblock.zstartdate+978307200,'unixepoch'),
zusagecounteditem.zbundleidentifier,
zusagecounteditem.znumberofnotifications,
zusagecounteditem.znumberofpickups,
datetime(zusageblock.zfirstpickupdate+978307200,'unixepoch'),
zusageblock.znumberofpickupswithoutapplicationusage,
zcoredevice.zname,
zcoredevice.zlocaluserdevicestate,
case zcoredevice.zplatform
when 0 then 'unknown'
when 1 then 'macos'
when 2 then 'ios'
when 4 then 'apple watch'
else zplatform
end,
zcoreuser.zgivenname,
zcoreuser.zfamilyname
from zusagecounteditem, zusageblock, zusage, zcoreuser, zcoredevice
where zusagecounteditem.zblock = zusageblock.z_pk
and zusageblock.zusage = zusage.z_pk
and zusage.zuser = zcoreuser.z_pk
and zusage.zdevice = zcoredevice.z_pk
''')
else:
cursor = db.cursor()
cursor.execute('''
select
datetime(zusageblock.zstartdate+978307200,'unixepoch'),
zusagecounteditem.zbundleidentifier,
zusagecounteditem.znumberofnotifications,
zusagecounteditem.znumberofpickups,
datetime(zusageblock.zfirstpickupdate+978307200,'unixepoch'),
zusageblock.znumberofpickupswithoutapplicationusage,
zcoredevice.zname,
zcoredevice.zlocaluserdevicestate,
zcoreuser.zgivenname,
zcoreuser.zfamilyname
from zusagecounteditem, zusageblock, zusage, zcoreuser, zcoredevice
where zusagecounteditem.zblock == zusageblock.z_pk
and zusageblock.zusage == zusage.z_pk
and zusage.zuser == zcoreuser.z_pk
and zusage.zdevice == zcoredevice.z_pk
''')
all_rows = cursor.fetchall()
usageentries = len(all_rows)
if usageentries > 0:
data_list = []
if version.parse(iOSversion) >= version.parse("13"):
for row in all_rows:
data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10]))
report = ArtifactHtmlReport('Screentime Counted Items')
report.start_artifact_report(report_folder, 'Counted Items')
report.add_script()
data_headers = ('Hour','Bundle ID','Number of Notifications','Number of Pickups', 'First Pickup','Number of Pickups W/O App Usage','Name','Local User Device State','Platform','Given Name','Family Name')
report.write_artifact_data_table(data_headers, data_list, file_found)
report.end_artifact_report()
tsvname = 'Screentime Counted Items'
tsv(report_folder, data_headers, data_list, tsvname)
else:
for row in all_rows:
data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9]))
report = ArtifactHtmlReport('Screentime Counted Items')
report.start_artifact_report(report_folder, 'Counted Items')
report.add_script()
data_headers = ('Hour','Bundle ID','Number of Notifications','Number of Pickups', 'First Pickup','Number of Pickups W/O App Usage','Name','Local User Device State','Given Name','Family Name')
report.write_artifact_data_table(data_headers, data_list, file_found)
report.end_artifact_report()
tsvname = 'Screentime Counted Items'
tsv(report_folder, data_headers, data_list, tsvname)
else:
logfunc('No data available in table foe Screentime Counted Items')
if version.parse(iOSversion) >= version.parse("13"):
cursor = db.cursor()
cursor.execute('''
select
distinct
datetime(zusageblock.zstartdate+978307200,'unixepoch'),
zusageblock.zscreentimeinseconds,
zusageblock.zscreentimeinseconds/60.00,
zcoreuser.zgivenname,
zcoreuser.zfamilyname,
zcoredevice.zname,
case zcoredevice.zplatform
when 0 then 'unknown'
when 1 then 'macos'
when 2 then 'ios'
when 4 then 'apple watch'
else zplatform
end,
zcoredevice.zlocaluserdevicestate as 'local user device state',
datetime(zusageblock.zlongestsessionstartdate+978307200,'unixepoch'),
datetime(zusageblock.zlongestsessionenddate+978307200,'unixepoch'),
datetime(zusageblock.zlasteventdate+978307200,'unixepoch'),
(zlongestsessionenddate-zlongestsessionstartdate),
(zlongestsessionenddate-zlongestsessionstartdate)/60.00
from zusagetimeditem, zusagecategory, zusageblock, zusage, zcoreuser, zcoredevice
where zusagecategory.z_pk == zusagetimeditem.zcategory
and zusagecategory.zblock == zusageblock.z_pk
and zusageblock.zusage == zusage.z_pk
and zusage.zuser == zcoreuser.z_pk
and zusage.zdevice == zcoredevice.z_pk
''')
all_rows = cursor.fetchall()
usageentries = len(all_rows)
if usageentries > 0:
data_list = []
if version.parse(iOSversion) >= version.parse("13"):
for row in all_rows:
data_list.append((row[0],row[1],row[2],row[3],row[4],row[5],row[6],row[7],row[8],row[9],row[10],row[11],row[12]))
report = ArtifactHtmlReport('Screentime Generic by Hour')
report.start_artifact_report(report_folder, 'Generic by Hour')
report.add_script()
data_headers = ('Hour','Screentime in Seconds','Screentime in Minutes','Given Name', 'Family Name','Name','Platform','Local User Device State','Longest Session Start','Longest Session End','Last Event Date','Longest Session Time in Seconds','Longest Session Time in Minutes')
report.write_artifact_data_table(data_headers, data_list, file_found)
report.end_artifact_report()
tsvname = 'Screentime Generic by Hour'
tsv(report_folder, data_headers, data_list, tsvname)
else:
logfunc('No data available in table foe Screentime Generic by Hour')
| 39.062731
| 280
| 0.746741
| 1,298
| 10,586
| 5.984592
| 0.154854
| 0.008883
| 0.011586
| 0.015448
| 0.836766
| 0.814882
| 0.801622
| 0.801622
| 0.801622
| 0.801622
| 0
| 0.033352
| 0.141791
| 10,586
| 271
| 281
| 39.062731
| 0.821684
| 0.010202
| 0
| 0.808943
| 0
| 0
| 0.623365
| 0.207884
| 0
| 0
| 0
| 0
| 0
| 1
| 0.004065
| false
| 0
| 0.036585
| 0
| 0.044715
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
9e2ff4cd5e406a28581b3e890fac206db3e0d6cd
| 20,320
|
py
|
Python
|
transformer/vocab.py
|
wxy1988/ASR
|
8ef3ef347523044c89c46c263ecc7b8e9b2c06d1
|
[
"Apache-2.0"
] | 60
|
2018-08-21T08:07:31.000Z
|
2021-11-08T10:40:17.000Z
|
transformer/vocab.py
|
wxy1988/ASR
|
8ef3ef347523044c89c46c263ecc7b8e9b2c06d1
|
[
"Apache-2.0"
] | 7
|
2018-10-23T08:50:15.000Z
|
2021-11-15T09:32:29.000Z
|
transformer/vocab.py
|
wxy1988/ASR
|
8ef3ef347523044c89c46c263ecc7b8e9b2c06d1
|
[
"Apache-2.0"
] | 29
|
2018-09-21T06:11:03.000Z
|
2022-02-18T07:12:58.000Z
|
# coding=utf-8
import codecs
import logging
import os
from argparse import ArgumentParser
from collections import Counter
import yaml
from utils import AttrDict
def make_vocab(fpath, fname):
"""Constructs vocabulary.
Args:
fpath: A string. Input file path.
fname: A string. Output file name.
Writes vocabulary line by line to `fname`.
"""
word2cnt = Counter()
for l in codecs.open(fpath, 'r', 'utf-8'):
words = l.split()
word2cnt.update(Counter(words))
word2cnt.update({"<PAD>": 10000000000000,
"<UNK>": 1000000000000,
"<S>": 100000000000,
"</S>": 10000000000})
with codecs.open(fname, 'w', 'utf-8') as fout:
for word, cnt in word2cnt.most_common():
fout.write(u"{}\t{}\n".format(word, cnt))
logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt)))
def make_word(fpath, fname):
"""Constructs vocabulary.
Args:
fpath: A string. Input file path.
fname: A string. Output file name.
Writes vocabulary line by line to `fname`.
"""
word2cnt = Counter()
for l in codecs.open(fpath, 'r', 'utf-8'):
l = l.strip()
words = l.split()
words = words[1:]
word2cnt.update(Counter(words))
word2cnt.update({"<PAD>": 10000000000000,
"<UNK>": 1000000000000,
"<S>": 100000000000,
"</S>": 10000000000})
with codecs.open(fname, 'w', 'utf-8') as fout:
for word, cnt in word2cnt.most_common():
fout.write(u"{}\t{}\n".format(word, cnt))
logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt)))
def make_word_multilang(fpath, fname):
"""Constructs vocabulary.
Args:
fpath: A string. Input file path.
fname: A string. Output file name.
Writes vocabulary line by line to `fname`.
"""
word2cnt = Counter()
for l in codecs.open(fpath, 'r', 'utf-8'):
l = l.strip()
words = l.split()
words = words[1:]
word2cnt.update(Counter(words))
word2cnt.update({"<PAD>": 10000000000000,
"<UNK>": 1000000000000,
"<S>": 100000000000,
"</S>": 10000000000,
"<S_MA>": 1000000009,
"<S_EN>": 1000000008,
"<S_JA>": 1000000007,
"<S_AR>": 1000000006,
"<S_GE>": 1000000005,
"<S_SP>": 1000000004})
with codecs.open(fname, 'w', 'utf-8') as fout:
for word, cnt in word2cnt.most_common():
fout.write(u"{}\t{}\n".format(word, cnt))
logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt)))
def make_word_ma_en(fpath, fname):
"""Constructs vocabulary.
Args:
fpath: A string. Input file path.
fname: A string. Output file name.
Writes vocabulary line by line to `fname`.
"""
word2cnt = Counter()
for l in codecs.open(fpath, 'r', 'utf-8'):
l = l.strip()
words = l.split()
words = words[1:]
word2cnt.update(Counter(words))
word2cnt.update({"<PAD>": 10000000000000,
"<UNK>": 1000000000000,
"<S>": 100000000000,
"</S>": 10000000000,
"<S_MA>": 1000000009,
"<S_EN>": 1000000008
})
with codecs.open(fname, 'w', 'utf-8') as fout:
for word, cnt in word2cnt.most_common():
fout.write(u"{}\t{}\n".format(word, cnt))
logging.info('Vocab path: {}\t size: {}'.format(fname, len(word2cnt)))
def make_word_count():
text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train/text'
word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train/word_count.txt'
make_word(text_path_in, word_path_out)
def make_word_count_thchs30():
text_path_in = '/data/syzhou/work/data/kaldi-trunk/egs/data_process_fzy/s5/data/train_sp/text.char'
word_path_out = '/data/syzhou/work/data/kaldi-trunk/egs/data_process_fzy/s5/data/train_sp/words_s2s_thchs30.txt'
make_word(text_path_in, word_path_out)
def make_word_count_aishell2():
text_path_in = '/data/syzhou/work/data/tensor2tensor/AISHELL2/aishell2_s2s/data/train_dim80/text.char'
word_path_out = '/data/syzhou/work/data/tensor2tensor/AISHELL2/aishell2_s2s/words_s2s.txt'
make_word(text_path_in, word_path_out)
def make_pinyin_count():
text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/pinyin/hkust.train.text.pinyin'
word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/pinyin/pinyin_s2s.txt'
make_word(text_path_in, word_path_out)
def make_word_count_dim80():
text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/text'
word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/word_count.txt'
make_word(text_path_in, word_path_out)
def make_word_count_en():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_en/data/train/text'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_en/data/train/words.txt'
make_word(text_path_in, word_path_out)
def make_word_count_CALLHOME(lang):
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_' + lang + '/data/train/text'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s/data_' + lang + '/data/train/words.txt'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_10000():
text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_10000/text.bpe_10000'
word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_10000/words_s2s.txt.bpe_10000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_5000():
text_path_in = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_5000/text.bpe_5000'
word_path_out = '/data/syzhou/work/data/tensor2tensor/hkust_ci_phone/src_data/train_dim80/bpe/bpe_5000/words_s2s.txt.bpe_5000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_5000_spanish():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/data/train_dim80/text.bpe_5000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/words_s2s.txt.bpe_5000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_5000_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_5000'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_5000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_3000_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_3000'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_3000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_2000_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_2000'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_2000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_100_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_100'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_100'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_500_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_500'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_500'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_50_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_50'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_50'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_1000_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text.bpe_1000'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt.bpe_1000'
make_word(text_path_in, word_path_out)
def make_word_count_english():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/data/train_dim80/text'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_en/words_s2s.txt'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_500_spanish():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/data/train_dim80/text.bpe_500'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_sp/words_s2s.txt.bpe_500'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_500_ar():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ar/data/train_dim80/text.bpe_500'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ar/words_s2s.txt.bpe_500'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_500_ge():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ge/data/train_dim80/text.bpe_500'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ge/words_s2s.txt.bpe_500'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_500_ja():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ja/data/train_dim80/text.bpe_500'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ja/words_s2s.txt.bpe_500'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_500_ma():
text_path_in = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ma/data/train_dim80/text.bpe_500'
word_path_out = '/data/syzhou/work/data/tensor2tensor/CALLHOME/s2s_new/data_ma/words_s2s.txt.bpe_500'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_5000_5lang():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_5000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_5000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_3000_5lang():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_3000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_3000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_7000_5lang():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_7000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_7000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_9000_5lang():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_9000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_9000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_1000_5lang():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_1000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s.txt.bpe_1000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_5000_5lang_lid():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/data/train_dim80/text.bpe_5000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_5lang/words_s2s_lid.txt.bpe_5000'
make_word_multilang(text_path_in, word_path_out)
def make_word_count_bpe_7000_6lang_lid():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80/text.bpe_7000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.bpe_7000'
make_word_multilang(text_path_in, word_path_out)
def make_word_count_bpe_3000_6lang_lid():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80/text.bpe_3000'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.bpe_3000'
make_word_multilang(text_path_in, word_path_out)
def make_word_count_bpe_12000_swbd_5lang_lid():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80_swbd_callhm_5lang/text.bpe_12000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.swbd_5lang.bpe_12000'
make_word_multilang(text_path_in, word_path_out)
def make_word_count_bpe_3000_swbd_5lang_lid():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80_swbd_callhm_5lang/text.bpe_3000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s_lid.txt.swbd_5lang.bpe_3000'
make_word_multilang(text_path_in, word_path_out)
def make_word_count_bpe_6lang():
for count in [1000, 3000, 5000, 7000, 9000]:
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/data/train_dim80/text.bpe_' + str(
count)
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_6lang/words_s2s.txt.bpe_' + str(
count)
make_word(text_path_in, word_path_out)
def make_word_count_bpe_3000_swbd():
text_path_in = '/data/syzhou/work/data/tensor2tensor/SWBD/data/train_dim80/text.bpe_3000'
word_path_out = '/data/syzhou/work/data/tensor2tensor/SWBD/words_s2s.txt.bpe_3000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_6000_swbd():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_6000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_6000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_9000_swbd():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_9000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_9000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_12000_swbd():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_12000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_12000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_15000_swbd():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_15000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_15000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_18000_swbd():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_18000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_18000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_21000_swbd():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_21000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_21000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_30000_swbd():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/data/train_dim80/text.bpe_30000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/SWBD/words_s2s.txt.bpe_30000'
make_word(text_path_in, word_path_out)
def make_word_count_bpe_3000_swbd_callhm_ma_lid():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/data/train_dim80_swbd_callhm_ma/text.bpe_3000.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/words_s2s_lid.txt.swbd_callhm_ma.bpe3k'
make_word_ma_en(text_path_in, word_path_out)
def make_word_count_bpe_500_swbd_callhm_ma_lid():
text_path_in = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/data/train_dim80_swbd_callhm_ma/text.bpe_500.sp'
word_path_out = '/mnt/lustre/xushuang2/syzhou/tensor2tensor/CALLHOME/s2s_new/data_2lang/words_s2s_lid.txt.swbd_callhm_ma.bpe500'
make_word_ma_en(text_path_in, word_path_out)
if __name__ == '__main__':
# make_word_count()
# make_pinyin_count()
# make_word_count_dim80()
# make_word_count_en()
# make_word_count_CALLHOME('ma')
# make_word_count_CALLHOME('ja')
# make_word_count_CALLHOME('ar')
# make_word_count_CALLHOME('ge')
# make_word_count_CALLHOME('sp')
# make_word_count_CALLHOME('6lang')
# make_word_count_bpe_10000()
# make_word_count_bpe_5000()
# make_word_count_bpe_5000_spanish()
# make_word_count_bpe_5000_english()
# make_word_count_bpe_3000_english()
# make_word_count_bpe_2000_english()
# make_word_count_bpe_100_english()
# make_word_count_bpe_500_english()
# make_word_count_bpe_50_english()
# make_word_count_bpe_1000_english()
# make_word_count_english()
# make_word_count_bpe_500_spanish()
# make_word_count_bpe_500_ar()
# make_word_count_bpe_500_ge()
# make_word_count_bpe_500_ja()
# make_word_count_bpe_5000_5lang()
# make_word_count_bpe_3000_5lang()
# make_word_count_bpe_7000_5lang()
# make_word_count_bpe_9000_5lang()
# make_word_count_bpe_1000_5lang()
# make_word_count_bpe_5000_5lang()
# make_word_count_bpe_5000_5lang_lid()
# make_word_count_bpe_6lang()
# make_word_count_bpe_7000_6lang_lid()
# make_word_count_bpe_3000_6lang_lid()
# make_word_count_bpe_3000_swbd()
# make_word_count_bpe_6000_swbd()
# make_word_count_bpe_9000_swbd()
# make_word_count_bpe_12000_swbd()
# make_word_count_bpe_15000_swbd()
# make_word_count_bpe_18000_swbd()
# make_word_count_bpe_21000_swbd()
# make_word_count_bpe_30000_swbd()
# make_word_count_bpe_12000_swbd_5lang_lid()
# make_word_count_bpe_3000_swbd_5lang_lid()
# make_word_count_bpe_3000_swbd_callhm_ma_lid()
# make_word_count_bpe_500_swbd_callhm_ma_lid()
# make_word_count_thchs30()
make_word_count_aishell2()
print ''
# from ctypes import cdll
#
# cdll.LoadLibrary('/usr/local/cuda/lib64/libcudnn.so.6')
# import os
#
# os.environ["CUDA_DEVICE_ORDER"] = "PCI_BUS_ID"
# # os.environ["CUDA_VISIBLE_DEVICES"] = "0"
# os.environ["CUDA_VISIBLE_DEVICES"] = "4"
#
# parser = ArgumentParser()
# parser.add_argument('-c', '--config', dest='config')
# args = parser.parse_args()
# # Read config
# args.config = '/data/syzhou/work/data/tensor2tensor/transformer/config_template.yaml'
# config = AttrDict(yaml.load(open(args.config)))
# logging.basicConfig(level=logging.INFO)
# if os.path.exists(config.src_vocab):
# logging.info('Source vocab already exists at {}'.format(config.src_vocab))
# else:
# make_vocab(config.train.src_path, config.src_vocab)
# if os.path.exists(config.dst_vocab):
# logging.info('Destination vocab already exists at {}'.format(config.dst_vocab))
# else:
# make_vocab(config.train.dst_path, config.dst_vocab)
# logging.info("Done")
| 43.793103
| 144
| 0.742864
| 3,100
| 20,320
| 4.473871
| 0.059355
| 0.079602
| 0.085298
| 0.083063
| 0.919389
| 0.901291
| 0.849665
| 0.838345
| 0.827241
| 0.814262
| 0
| 0.073499
| 0.137598
| 20,320
| 463
| 145
| 43.887689
| 0.71793
| 0.120915
| 0
| 0.40625
| 0
| 0.273438
| 0.477877
| 0.459148
| 0
| 0
| 0
| 0
| 0
| 0
| null | null | 0
| 0.027344
| null | null | 0.003906
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 9
|
7b34b8cd517ebb5d191125efc53a354bcdedbc75
| 156
|
py
|
Python
|
cart/admin.py
|
dharmikpopat/cohinza
|
fb8cbc8d34758687d72f120537dce5755c71d110
|
[
"MIT"
] | null | null | null |
cart/admin.py
|
dharmikpopat/cohinza
|
fb8cbc8d34758687d72f120537dce5755c71d110
|
[
"MIT"
] | null | null | null |
cart/admin.py
|
dharmikpopat/cohinza
|
fb8cbc8d34758687d72f120537dce5755c71d110
|
[
"MIT"
] | null | null | null |
from django.contrib import admin
from .models import Cart, CartItem, CartAdmin
admin.site.register(Cart, CartAdmin)
admin.site.register(CartItem)
| 19.5
| 46
| 0.769231
| 20
| 156
| 6
| 0.55
| 0.233333
| 0.3
| 0.433333
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.147436
| 156
| 7
| 47
| 22.285714
| 0.902256
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0.5
| 0
| 0.5
| 0
| 1
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 0
| 0
|
0
| 7
|
7b546583f1d1067292507731efffc041351f3cd1
| 18,514
|
py
|
Python
|
pretrain_src/data/image_tasks.py
|
cshizhe/VLN-HAMT
|
08918ddcea7b7822831a5b535038732f8dfeab23
|
[
"MIT"
] | 33
|
2021-11-12T14:45:21.000Z
|
2022-03-31T13:01:02.000Z
|
pretrain_src/data/image_tasks.py
|
biubiuisacat/VLN-HAMT
|
08918ddcea7b7822831a5b535038732f8dfeab23
|
[
"MIT"
] | 5
|
2022-01-12T03:58:28.000Z
|
2022-03-16T01:25:21.000Z
|
pretrain_src/data/image_tasks.py
|
biubiuisacat/VLN-HAMT
|
08918ddcea7b7822831a5b535038732f8dfeab23
|
[
"MIT"
] | 5
|
2021-11-15T06:06:05.000Z
|
2022-03-10T02:35:06.000Z
|
import random
import numpy as np
import torch
from torch.nn.utils.rnn import pad_sequence
from .data import pad_tensors, gen_seq_masks
from .mlm import random_word, MlmDataset
from .mrc import _get_img_mask, MrcDataset
from .sap import SapDataset
from .sar import SarDataset
from .sprel import SprelDataset
from .itm import ItmDataset
class MlmImageDataset(MlmDataset):
def __getitem__(self, i):
i_traj, j_instr, path_len = self.nav_db.traj_refer[i]
inputs = self.nav_db.get_input(
i_traj,
j_instr,
path_len,
return_ob=False,
return_ob_action=False,
return_hist_img_probs=False,
return_ob_progress=False,
)
output = {}
# prepare text tensor
txt_ids, txt_labels = random_word(
inputs["instr_encoding"], self.vocab_range, self.mask_token_id
)
output["txt_ids"] = torch.LongTensor(txt_ids)
output["txt_labels"] = torch.LongTensor(txt_labels)
output["txt_lens"] = output["txt_ids"].size(0)
# prepare history tensor
output["hist_images"] = inputs["hist_images"]
output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"])
output["hist_pano_images"] = inputs["hist_pano_images"]
output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"])
output["hist_lens"] = inputs["hist_lens"]
return output
def mlm_image_collate(inputs):
batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()}
# text batches
batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0)
batch["txt_labels"] = pad_sequence(
batch["txt_labels"], batch_first=True, padding_value=-1
)
batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"]))
batch["txt_lens"] = torch.LongTensor(batch["txt_lens"])
# history batches
batch["hist_images"] = pad_tensors(
batch["hist_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_ang_fts"] = pad_tensors(
batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_images"] = pad_tensors(
batch["hist_pano_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_ang_fts"] = pad_tensors(
batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token
batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"]))
batch["hist_lens"] = torch.LongTensor(batch["hist_lens"])
return batch
class MrcImageDataset(MrcDataset):
def __getitem__(self, i):
i_traj, j_instr, path_len = self.nav_db.traj_refer[i]
inputs = self.nav_db.get_input(
i_traj,
j_instr,
path_len,
return_ob=False,
return_ob_action=False,
return_hist_img_probs=True,
return_ob_progress=False,
)
output = {}
# prepare text tensor
txt_ids = inputs["instr_encoding"]
output["txt_ids"] = torch.LongTensor(txt_ids)
output["txt_lens"] = output["txt_ids"].size(0)
# prepare history tensor: masked history image
hist_mrc_masks = _get_img_mask(
self.mask_prob, inputs["hist_img_probs"].shape[0]
) # (T, )
# masked the feature after backbone (not now)
output["hist_images"] = inputs["hist_images"]
output["hist_pano_images"] = inputs["hist_pano_images"]
output["hist_img_probs"] = torch.from_numpy(inputs["hist_img_probs"])
output["hist_mrc_masks"] = hist_mrc_masks
output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"])
output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"])
output["hist_lens"] = inputs["hist_lens"]
return output
def mrc_image_collate(inputs):
batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()}
# text batches
batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0)
batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"]))
batch["txt_lens"] = torch.LongTensor(batch["txt_lens"])
# history batches
batch["hist_images"] = pad_tensors(
batch["hist_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_ang_fts"] = pad_tensors(
batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_images"] = pad_tensors(
batch["hist_pano_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_ang_fts"] = pad_tensors(
batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0
)
# labels
batch["hist_mrc_masks"] = pad_sequence(
batch["hist_mrc_masks"], batch_first=True, padding_value=0
)
batch["hist_img_probs"] = pad_tensors(
batch["hist_img_probs"], lens=batch["hist_lens"], pad=0
)
batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token
batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"]))
batch["hist_lens"] = torch.LongTensor(batch["hist_lens"])
return batch
class SapImageDataset(SapDataset):
def __getitem__(self, i):
i_traj, j_instr, t_cur = self.nav_db.traj_step_refer[i]
inputs = self.nav_db.get_input(
i_traj,
j_instr,
t_cur,
return_ob=True,
return_ob_action=True,
return_hist_img_probs=False,
return_ob_progress=False,
)
output = {}
# prepare text tensor
txt_ids = inputs["instr_encoding"]
output["txt_ids"] = torch.LongTensor(txt_ids)
output["txt_lens"] = output["txt_ids"].size(0)
# prepare vision tensor
output["ob_images"] = inputs["ob_images"]
v_exists = True
if random.random() < self.random_kill_v:
output["ob_images"][...] = 0
v_exists = False
output["ob_v_exists"] = v_exists
output["ob_ang_fts"] = torch.from_numpy(inputs["ob_ang_fts"])
if v_exists and random.random() < self.random_kill_a:
output["ob_ang_fts"][...] = 0
output["ob_nav_types"] = torch.LongTensor(inputs["ob_nav_types"])
output["ob_lens"] = output["ob_images"].size(0) + 1 # STOP
# prepare action
output["ob_action_viewindex"] = inputs["ob_action_viewindex"]
# prepare history tensor
output["hist_images"] = inputs["hist_images"]
output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"])
output["hist_pano_images"] = inputs["hist_pano_images"]
output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"])
output["hist_lens"] = inputs["hist_lens"]
return output
def sap_image_collate(inputs):
batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()}
# text batches
batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0)
batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"]))
batch["txt_lens"] = torch.LongTensor(batch["txt_lens"])
# image batches
batch["ob_images"] = pad_tensors(
batch["ob_images"], lens=[x - 1 for x in batch["ob_lens"]], pad=0
)
batch["ob_v_exists"] = torch.BoolTensor(batch["ob_v_exists"])
batch["ob_ang_fts"] = pad_tensors(batch["ob_ang_fts"], lens=batch["ob_lens"], pad=0)
batch["ob_nav_types"] = pad_sequence(
batch["ob_nav_types"], batch_first=True, padding_value=0
)
batch["ob_masks"] = torch.BoolTensor(gen_seq_masks(batch["ob_lens"]))
batch["ob_lens"] = torch.LongTensor(batch["ob_lens"])
# history batches
if max(batch["hist_lens"]) == 0:
# all are in first step
batch["hist_images"] = None
batch["hist_anages"] = None
batch["hist_pano_images"] = None
batch["hist_pano_ang_fts"] = None
else:
batch["hist_images"] = pad_tensors(
batch["hist_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_ang_fts"] = pad_tensors(
batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_images"] = pad_tensors(
batch["hist_pano_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_ang_fts"] = pad_tensors(
batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token
batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"]))
batch["hist_lens"] = torch.LongTensor(batch["hist_lens"])
# action batches
batch["ob_action_viewindex"] = torch.LongTensor(batch["ob_action_viewindex"])
return batch
class SarImageDataset(SarDataset):
def __getitem__(self, i):
i_traj, j_instr, t_cur = self.nav_db.traj_step_refer[i]
inputs = self.nav_db.get_input(
i_traj,
j_instr,
t_cur,
return_ob=True,
return_ob_action=True,
return_hist_img_probs=False,
return_ob_progress=True,
)
output = {}
# prepare text tensor
txt_ids = inputs["instr_encoding"]
output["txt_ids"] = torch.LongTensor(txt_ids)
output["txt_lens"] = output["txt_ids"].size(0)
# prepare vision tensor
output["ob_images"] = inputs["ob_images"]
v_exists = True
if random.random() < self.random_kill_v:
output["ob_images"][...] = 0
v_exists = False
output["ob_v_exists"] = v_exists
output["ob_ang_fts"] = torch.from_numpy(inputs["ob_ang_fts"])
if v_exists and random.random() < self.random_kill_a:
output["ob_ang_fts"][...] = 0
output["ob_nav_types"] = torch.LongTensor(inputs["ob_nav_types"])
output["ob_lens"] = output["ob_images"].size(0) + 1 # STOP
# prepare action
output["ob_action_angles"] = self._standardize_radians(
inputs["ob_action_angles"]
)
output["ob_progress"] = inputs["ob_progress"]
# prepare history tensor
output["hist_images"] = inputs["hist_images"]
output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"])
output["hist_pano_images"] = inputs["hist_pano_images"]
output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"])
output["hist_lens"] = inputs["hist_lens"]
return output
def sar_image_collate(inputs):
batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()}
# text batches
batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0)
batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"]))
batch["txt_lens"] = torch.LongTensor(batch["txt_lens"])
# image batches
batch["ob_images"] = pad_tensors(
batch["ob_images"], lens=[x - 1 for x in batch["ob_lens"]], pad=0
)
batch["ob_v_exists"] = torch.BoolTensor(batch["ob_v_exists"])
batch["ob_ang_fts"] = pad_tensors(batch["ob_ang_fts"], lens=batch["ob_lens"], pad=0)
batch["ob_nav_types"] = pad_sequence(
batch["ob_nav_types"], batch_first=True, padding_value=0
)
batch["ob_masks"] = torch.BoolTensor(gen_seq_masks(batch["ob_lens"]))
batch["ob_lens"] = torch.LongTensor(batch["ob_lens"])
# history batches
if max(batch["hist_lens"]) == 0:
# all are in first step
batch["hist_images"] = None
batch["hist_anages"] = None
batch["hist_pano_images"] = None
batch["hist_pano_ang_fts"] = None
else:
batch["hist_images"] = pad_tensors(
batch["hist_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_ang_fts"] = pad_tensors(
batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_images"] = pad_tensors(
batch["hist_pano_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_ang_fts"] = pad_tensors(
batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token
batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"]))
batch["hist_lens"] = torch.LongTensor(batch["hist_lens"])
# action batches
batch["ob_action_angles"] = torch.FloatTensor(batch["ob_action_angles"])
batch["ob_progress"] = torch.FloatTensor(batch["ob_progress"])
return batch
class SprelImageDataset(SprelDataset):
def __getitem__(self, i):
i_traj, j_instr, t_cur = self.nav_db.traj_step_refer[i]
inputs = self.nav_db.get_input(
i_traj,
j_instr,
t_cur,
return_ob=True,
return_ob_action=False,
return_hist_img_probs=False,
return_ob_progress=False,
)
output = {}
# prepare text tensor
txt_ids = inputs["instr_encoding"]
output["txt_ids"] = torch.LongTensor(txt_ids)
output["txt_lens"] = output["txt_ids"].size(0)
# prepare vision tensor
output["ob_images"] = inputs["ob_images"]
v_exists = True
if random.random() < self.random_kill_v:
output["ob_images"][...] = 0
v_exists = False
output["ob_v_exists"] = v_exists
output["ob_ang_fts"] = torch.from_numpy(inputs["ob_ang_fts"])
if v_exists and random.random() < self.random_kill_a:
output["ob_ang_fts"][...] = 0
output["ob_nav_types"] = torch.LongTensor(inputs["ob_nav_types"])
output["ob_lens"] = output["ob_images"].size(0) + 1 # STOP
# prepare history tensor
output["hist_images"] = inputs["hist_images"]
output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"])
output["hist_pano_images"] = inputs["hist_pano_images"]
output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"])
output["hist_lens"] = inputs["hist_lens"]
# prepare labels
sp_anchor_idx = np.random.randint(36) # select a view as anchor
output["sp_anchor_idxs"] = sp_anchor_idx
output["sp_targets"] = self.sp_targets[sp_anchor_idx]
return output
def sprel_image_collate(inputs):
batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()}
# text batches
batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0)
batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"]))
batch["txt_lens"] = torch.LongTensor(batch["txt_lens"])
# image batches
batch["ob_images"] = pad_tensors(
batch["ob_images"], lens=[x - 1 for x in batch["ob_lens"]], pad=0
)
batch["ob_v_exists"] = torch.BoolTensor(batch["ob_v_exists"])
batch["ob_ang_fts"] = pad_tensors(batch["ob_ang_fts"], lens=batch["ob_lens"], pad=0)
batch["ob_nav_types"] = pad_sequence(
batch["ob_nav_types"], batch_first=True, padding_value=0
)
batch["ob_masks"] = torch.BoolTensor(gen_seq_masks(batch["ob_lens"]))
batch["ob_lens"] = torch.LongTensor(batch["ob_lens"])
# history batches
if max(batch["hist_lens"]) == 0:
# all are in first step
batch["hist_images"] = None
batch["hist_ang_fts"] = None
batch["hist_pano_images"] = None
batch["hist_pano_ang_fts"] = None
else:
batch["hist_images"] = pad_tensors(
batch["hist_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_ang_fts"] = pad_tensors(
batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_images"] = pad_tensors(
batch["hist_pano_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_ang_fts"] = pad_tensors(
batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token
batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"]))
batch["hist_lens"] = torch.LongTensor(batch["hist_lens"])
# action batches
batch["sp_anchor_idxs"] = torch.LongTensor(batch["sp_anchor_idxs"])
batch["sp_targets"] = torch.FloatTensor(batch["sp_targets"])
return batch
class ItmImageDataset(ItmDataset):
def __getitem__(self, i):
i_traj, j_instr, path_len = self.nav_db.traj_refer[i]
inputs = self.nav_db.get_input(
i_traj,
j_instr,
path_len,
return_ob=False,
return_ob_action=False,
return_hist_img_probs=False,
return_ob_progress=False,
)
output = {}
# prepare text tensor
txt_ids = inputs["instr_encoding"]
output["txt_ids"] = torch.LongTensor(txt_ids)
output["txt_lens"] = output["txt_ids"].size(0)
# prepare history tensor
output["hist_images"] = inputs["hist_images"]
output["hist_ang_fts"] = torch.from_numpy(inputs["hist_ang_fts"])
output["hist_pano_images"] = inputs["hist_pano_images"]
output["hist_pano_ang_fts"] = torch.from_numpy(inputs["hist_pano_ang_fts"])
output["hist_lens"] = inputs["hist_lens"]
return output
def itm_image_collate(inputs):
batch = {k: [x[k] for x in inputs] for k in inputs[0].keys()}
# text batches
batch["txt_ids"] = pad_sequence(batch["txt_ids"], batch_first=True, padding_value=0)
batch["txt_masks"] = torch.BoolTensor(gen_seq_masks(batch["txt_lens"]))
batch["txt_lens"] = torch.LongTensor(batch["txt_lens"])
# history batches
batch["hist_images"] = pad_tensors(
batch["hist_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_ang_fts"] = pad_tensors(
batch["hist_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_images"] = pad_tensors(
batch["hist_pano_images"], lens=batch["hist_lens"], pad=0
)
batch["hist_pano_ang_fts"] = pad_tensors(
batch["hist_pano_ang_fts"], lens=batch["hist_lens"], pad=0
)
batch["hist_lens"] = [x + 1 for x in batch["hist_lens"]] # added a global token
batch["hist_masks"] = torch.BoolTensor(gen_seq_masks(batch["hist_lens"]))
batch["hist_lens"] = torch.LongTensor(batch["hist_lens"])
return batch
| 36.373281
| 88
| 0.628281
| 2,506
| 18,514
| 4.309258
| 0.055866
| 0.106677
| 0.069821
| 0.048801
| 0.873599
| 0.868969
| 0.868969
| 0.866006
| 0.863043
| 0.859154
| 0
| 0.005699
| 0.232365
| 18,514
| 508
| 89
| 36.444882
| 0.754151
| 0.050718
| 0
| 0.755263
| 0
| 0
| 0.216927
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.031579
| false
| 0
| 0.028947
| 0
| 0.107895
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
7b59b155b83b33263012d99c2cb4e69a10383129
| 9,678
|
py
|
Python
|
alphafy.py
|
knowminni/emojify
|
1d8445029f578f2032d443c99982e47b0e5e7807
|
[
"Apache-2.0"
] | null | null | null |
alphafy.py
|
knowminni/emojify
|
1d8445029f578f2032d443c99982e47b0e5e7807
|
[
"Apache-2.0"
] | null | null | null |
alphafy.py
|
knowminni/emojify
|
1d8445029f578f2032d443c99982e47b0e5e7807
|
[
"Apache-2.0"
] | null | null | null |
import emoji
def A(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (((col == 1 or col == 4) and row != 0) or
((row == 0 or row == 3) and (col > 1 and col < 5))):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def B(text):
res = ''
for row in range(0, 7):
for col in range(0, 7):
if (col == 1 or ((row == 0 or row == 3 or row == 6)
and (col < 5 and col > 1)) or (col == 5 and
(row != 0 and row != 3 and row != 6))):
res = res + text
else:
res=res + ' '
res=res + '\n'
return res
def C(text):
res = ''
for row in range(0, 7):
for col in range(0, 7):
if ((col == 1 and (row != 0 and row != 6)) or
((row == 0 or row == 6) and (col > 1 and col < 5)) or
(col == 5 and (row == 1 or row == 5))):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def D(text):
res = ''
for row in range(0, 7):
for column in range(0, 7):
if (column == 1 or ((row == 0 or row == 6) and
(column > 1 and column < 5)) or (column == 5 and row != 0 and row != 6)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def E(text):
res = ''
for row in range(0, 7):
for col in range(0, 7):
if (col == 1 or ((row == 0 or row == 6) and (col > 1 and col < 6)) or
(row == 3 and col > 1 and col < 5)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def F(text):
res = ''
for row in range(0, 7):
for col in range(0, 7):
if (col == 1 or (row == 0 and col > 1 and col < 6)
or (row == 3 and col > 1 and col < 5)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def G(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if ((col == 1 and row != 0 and row != 6) or ((row == 0 or row == 6)
and col > 1 and col < 5) or (row == 3 and col > 2 and col < 6)
or (col == 5 and row != 0 and row != 2 and row != 6)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def H(text):
res = ''
for row in range(0, 7):
for col in range(0, 7):
if ((col == 1 or col == 5) or (row == 3 and col > 1 and col < 6)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def I(text):
res = ''
for row in range(0, 7):
for col in range(0, 7):
if (col == 3 or (row == 0 and col > 0 and col < 6) or
(row == 6 and col > 0 and col < 6)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def J(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if ((col == 4 and row != 6) or (row == 0 and col > 2 and col < 6)
or (row == 6 and col == 3) or (row == 5 and col == 2)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def K(text):
res = ''
i, j = 0, 5
for row in range(0,7):
for col in range(0,7):
if (col == 1 or ((row == col + 1) and col != 0)):
res = res + text
elif (row == i and col == j):
res = res + text
i = i + 1
j = j - 1
else:
res = res + ' '
res = res + '\n'
return res
def L(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (col == 1 or (row == 6 and col != 0 and col < 6)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def M(text):
res = ''
for row in range(0, 7):
for col in range(0, 7):
if (col == 1 or col == 5 or (row == 2 and (col == 2 or col == 4))
or (row == 3 and col == 3)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def N(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (col == 1 or col == 5 or (row == col and col != 0 and col != 6)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def O(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (((col == 1 or col == 5) and row != 0 and row != 6)
or ((row == 0 or row == 6) and col > 1 and col < 5)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def P(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (col == 1 or ((row == 0 or row == 3) and col > 0 and col < 5)
or ((col == 5 or col == 1) and (row == 1 or row == 2))):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def Q(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if ((col == 1 and row != 0 and row != 6) or (row == 0 and col > 1 and col < 5) or (col == 5 and row != 0 and row != 5) or (row == 6 and col > 1 and col < 4) or (col == row - 1 and row > 3)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
return res
def R(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (col == 1 or ((row == 0 or row == 3) and col > 1 and col < 5) or (col == 5 and row != 0 and row < 3) or (col == row - 1 and row > 2)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def S(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if(((row == 0 or row == 3 or row == 6) and col > 1 and col < 5)
or (col == 1 and (row == 1 or row == 2 or row == 6)) or (col == 5 and (row == 0 or row == 4 or row == 5))):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def T(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (col == 3 or (row == 0 and col > 0 and col < 6)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def U(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (((col == 1 or col == 5) and row != 6) or (row == 6 and col > 1 and col < 5)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def V(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if(((col == 1 or col == 5) and row < 5) or (row == 6 and col == 3) or
(row == 5 and (col == 2 or col == 4))):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def W(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (((col == 1 or col == 5) and row < 6) or ((row == 5 or row == 4) and col == 3)
or (row == 6 and (col == 2 or col == 4))):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def X(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (((col == 1 or col == 5) and (row > 4 or row < 2)) or row == col and col > 0 and col < 6 or (col == 2 and row == 4) or (col == 4 and row == 2)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def Y(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (((col == 1 or col == 5) and row < 2) or row == col
and col > 0 and col < 4 or (col == 4 and row == 2) or ((col == 3) and row > 3)):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
def Z(text):
res = ''
for row in range(0,7):
for col in range(0,7):
if (((row == 0 or row == 6) and col >= 0 and col <= 7) or row + col==7):
res = res + text
else:
res = res + ' '
res = res + '\n'
return res
| 25.603175
| 202
| 0.357099
| 1,362
| 9,678
| 2.537445
| 0.037445
| 0.182292
| 0.12037
| 0.135417
| 0.944734
| 0.928819
| 0.91522
| 0.896701
| 0.866609
| 0.849248
| 0
| 0.065971
| 0.505063
| 9,678
| 377
| 203
| 25.671088
| 0.655532
| 0
| 0
| 0.730769
| 0
| 0
| 0.011182
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.090909
| false
| 0
| 0.003497
| 0
| 0.188811
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
7b64b4d930a72736a55f596e1707c596c03f85c0
| 5,688
|
py
|
Python
|
dfirtrack_main/tests/casestatus/test_casestatus_views.py
|
thomas-kropeit/dfirtrack
|
b1e0e659af7bc8085cfe2d269ddc651f9f4ba585
|
[
"Apache-2.0"
] | 273
|
2018-04-18T22:09:15.000Z
|
2021-06-04T09:15:48.000Z
|
dfirtrack_main/tests/casestatus/test_casestatus_views.py
|
stuhli/dfirtrack
|
9260c91e4367b36d4cb1ae7efe4e2d2452f58e6e
|
[
"Apache-2.0"
] | 75
|
2018-08-31T11:05:37.000Z
|
2021-06-08T14:15:07.000Z
|
dfirtrack_main/tests/casestatus/test_casestatus_views.py
|
thomas-kropeit/dfirtrack
|
b1e0e659af7bc8085cfe2d269ddc651f9f4ba585
|
[
"Apache-2.0"
] | 61
|
2018-11-12T22:55:48.000Z
|
2021-06-06T15:16:16.000Z
|
import urllib.parse
from django.contrib.auth.models import User
from django.test import TestCase
from dfirtrack_main.models import Casestatus
class CasestatusViewTestCase(TestCase):
"""casestatus view tests"""
@classmethod
def setUpTestData(cls):
# create object
Casestatus.objects.create(casestatus_name='casestatus_1')
# create user
User.objects.create_user(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
def test_casestatus_list_not_logged_in(self):
"""test list view"""
# create url
destination = '/login/?next=' + urllib.parse.quote('/casestatus/', safe='')
# get response
response = self.client.get('/casestatus/', follow=True)
# compare
self.assertRedirects(
response, destination, status_code=302, target_status_code=200
)
def test_casestatus_list_logged_in(self):
"""test list view"""
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# get response
response = self.client.get('/casestatus/')
# compare
self.assertEqual(response.status_code, 200)
def test_casestatus_list_template(self):
"""test list view"""
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# get response
response = self.client.get('/casestatus/')
# compare
self.assertTemplateUsed(
response, 'dfirtrack_main/casestatus/casestatus_list.html'
)
def test_casestatus_list_get_user_context(self):
"""test list view"""
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# get response
response = self.client.get('/casestatus/')
# compare
self.assertEqual(str(response.context['user']), 'testuser_casestatus')
def test_casestatus_list_redirect(self):
"""test list view"""
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# create url
destination = urllib.parse.quote('/casestatus/', safe='/')
# get response
response = self.client.get('/casestatus', follow=True)
# compare
self.assertRedirects(
response, destination, status_code=301, target_status_code=200
)
def test_casestatus_detail_not_logged_in(self):
"""test detail view"""
# get object
casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1')
# create url
destination = '/login/?next=' + urllib.parse.quote(
'/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/', safe=''
)
# get response
response = self.client.get(
'/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/', follow=True
)
# compare
self.assertRedirects(
response, destination, status_code=302, target_status_code=200
)
def test_casestatus_detail_logged_in(self):
"""test detail view"""
# get object
casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1')
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# get response
response = self.client.get(
'/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/'
)
# compare
self.assertEqual(response.status_code, 200)
def test_casestatus_detail_template(self):
"""test detail view"""
# get object
casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1')
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# get response
response = self.client.get(
'/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/'
)
# compare
self.assertTemplateUsed(
response, 'dfirtrack_main/casestatus/casestatus_detail.html'
)
def test_casestatus_detail_get_user_context(self):
"""test detail view"""
# get object
casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1')
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# get response
response = self.client.get(
'/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/'
)
# compare
self.assertEqual(str(response.context['user']), 'testuser_casestatus')
def test_casestatus_detail_redirect(self):
"""test list view"""
# get object
casestatus_1 = Casestatus.objects.get(casestatus_name='casestatus_1')
# login testuser
self.client.login(
username='testuser_casestatus', password='6imkOwOYEjWv5TnOzjQ1'
)
# create url
destination = urllib.parse.quote(
'/casestatus/detail/' + str(casestatus_1.casestatus_id) + '/', safe='/'
)
# get response
response = self.client.get(
'/casestatus/detail/' + str(casestatus_1.casestatus_id), follow=True
)
# compare
self.assertRedirects(
response, destination, status_code=301, target_status_code=200
)
| 32.135593
| 86
| 0.614803
| 542
| 5,688
| 6.263838
| 0.118081
| 0.058321
| 0.074227
| 0.067747
| 0.889838
| 0.846539
| 0.837113
| 0.83299
| 0.789691
| 0.772607
| 0
| 0.018288
| 0.279008
| 5,688
| 176
| 87
| 32.318182
| 0.809559
| 0.111639
| 0
| 0.47
| 0
| 0
| 0.163944
| 0.018955
| 0
| 0
| 0
| 0
| 0.1
| 1
| 0.11
| false
| 0.09
| 0.04
| 0
| 0.16
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
|
0
| 7
|
7b964306ad533eeb2e581480218a53b894bb45af
| 81
|
py
|
Python
|
mellon/factories/web_crawler/__init__.py
|
LaudateCorpus1/mellon
|
a7a9f6d8abf1dd03b63a94ddb4439c6cc6c2e272
|
[
"MIT"
] | 5
|
2016-12-20T19:39:01.000Z
|
2021-01-08T16:19:17.000Z
|
mellon/factories/web_crawler/__init__.py
|
CrowdStrike/mellon
|
7216f255d397a41b1c2777a1b02f1c085d07ddfe
|
[
"MIT"
] | 1
|
2018-03-21T17:05:13.000Z
|
2018-03-21T17:05:13.000Z
|
mellon/factories/web_crawler/__init__.py
|
LaudateCorpus1/mellon
|
a7a9f6d8abf1dd03b63a94ddb4439c6cc6c2e272
|
[
"MIT"
] | 2
|
2017-11-01T15:03:27.000Z
|
2018-11-13T03:04:44.000Z
|
from .interfaces import IScrapyHttpResponse
from .interfaces import IScrapySpider
| 40.5
| 43
| 0.888889
| 8
| 81
| 9
| 0.625
| 0.388889
| 0.555556
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.08642
| 81
| 2
| 44
| 40.5
| 0.972973
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
7b9a6f327c591be95939b6d0b1038142e2323c0c
| 108
|
py
|
Python
|
pythonCore/ch05/E09.py
|
Furzoom/learnpython
|
a3034584e481d4e7c55912d9da06439688aa67ea
|
[
"MIT"
] | null | null | null |
pythonCore/ch05/E09.py
|
Furzoom/learnpython
|
a3034584e481d4e7c55912d9da06439688aa67ea
|
[
"MIT"
] | null | null | null |
pythonCore/ch05/E09.py
|
Furzoom/learnpython
|
a3034584e481d4e7c55912d9da06439688aa67ea
|
[
"MIT"
] | null | null | null |
#!/usr/bin/env python
# -*- coding: utf-8 -*-
print 17 + 32
print 017 + 32
print 017 + 032
print 56l + 78l
| 13.5
| 23
| 0.611111
| 19
| 108
| 3.473684
| 0.736842
| 0.212121
| 0.30303
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.238095
| 0.222222
| 108
| 8
| 24
| 13.5
| 0.547619
| 0.388889
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | null | 0
| 0
| null | null | 1
| 1
| 0
| 0
| null | 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 1
|
0
| 7
|
7bc80702045714c9bad9a2090117d645bff3148d
| 126
|
py
|
Python
|
envs/d4rl/d4rl_content/gym_minigrid/envs/__init__.py
|
AliengirlLiv/babyai
|
51421ee11538bf110c5b2d0c84a15f783d854e7d
|
[
"MIT"
] | 2
|
2022-02-24T08:47:48.000Z
|
2022-03-23T09:44:22.000Z
|
envs/d4rl/d4rl_content/gym_minigrid/envs/__init__.py
|
AliengirlLiv/babyai
|
51421ee11538bf110c5b2d0c84a15f783d854e7d
|
[
"MIT"
] | null | null | null |
envs/d4rl/d4rl_content/gym_minigrid/envs/__init__.py
|
AliengirlLiv/babyai
|
51421ee11538bf110c5b2d0c84a15f783d854e7d
|
[
"MIT"
] | 1
|
2021-12-27T19:03:38.000Z
|
2021-12-27T19:03:38.000Z
|
from envs.d4rl.d4rl_content.gym_minigrid.envs.fourrooms import *
from envs.d4rl.d4rl_content.gym_minigrid.envs.empty import *
| 42
| 64
| 0.84127
| 20
| 126
| 5.1
| 0.45
| 0.156863
| 0.235294
| 0.313725
| 0.745098
| 0.745098
| 0.745098
| 0.745098
| 0
| 0
| 0
| 0.033898
| 0.063492
| 126
| 2
| 65
| 63
| 0.830508
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 0
| 1
| 1
| 0
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 10
|
c878d03db9944ff0dbc0462a16c223b35b854122
| 17,437
|
py
|
Python
|
gf256.py
|
samrussell/rcode
|
0d1a67854c726927004f8df893faef58f0f1c5bc
|
[
"0BSD"
] | 1
|
2015-03-06T04:04:26.000Z
|
2015-03-06T04:04:26.000Z
|
gf256.py
|
samrussell/rcode
|
0d1a67854c726927004f8df893faef58f0f1c5bc
|
[
"0BSD"
] | null | null | null |
gf256.py
|
samrussell/rcode
|
0d1a67854c726927004f8df893faef58f0f1c5bc
|
[
"0BSD"
] | null | null | null |
#!/usr/bin/python
import math
import pprint
import numpy
import random
import os
import json
import struct
import time
def makegaloisfield(fieldsize, generator):
# generate tables
#generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011
#fieldsize = 256
table = [[0 for y in xrange(fieldsize)] for x in xrange(fieldsize)]
for a in xrange(fieldsize):
# break up a into its parts
x = 0
tempa = a
parts = []
while tempa != 0:
if tempa & 1:
# add bit to parts
parts.append(x)
x = x + 1
tempa = tempa >> 1
#print "number %d" % a
#print parts
for b in xrange(fieldsize):
if a==0 or b==0:
table[a][b] = 0
continue
# shift b by everything in parts
shifts = [b << x for x in parts]
# reduce list
product = reduce(lambda x, y:x^y, shifts)
# now divide modulo generator
# loop while the product is longer (bitwise) than the generator
while int(math.log(product, 2)) >= int(math.log(generator, 2)):
generatorlen = int(math.log(generator, 2))
productlen = int(math.log(product, 2))
shift = productlen - generatorlen
shiftedgenerator = generator << shift
# xor shifted generator against product
product = product ^ (generator << shift)
# product is what we want, put into matrix
table[a][b] = product
inverses = [0 for x in xrange(fieldsize)]
for a in xrange(fieldsize):
if a == 0:
continue
inverse = [x for x, y in enumerate(table[a]) if y == 1]
if len(inverse) != 1:
raise Exception("inverse of %d is %s?!" % (a, inverse))
inverses[a] = inverse[0]
return {"table" : table, "inverses" : inverses}
class GF256:
def __init__(self):
self.generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011
self.fieldsize = 256
gf = makegaloisfield(self.fieldsize, self.generator)
self.table = gf["table"]
self.inverses = gf["inverses"]
def __init__(self, data):
self.generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011
self.fieldsize = 256
gf = json.loads(data)
self.table = gf["table"]
self.inverses = gf["inverses"]
class GFnum:
def __init__(self, num, gf):
self.num = num
self.gf = gf
def __add__(self, other):
if isinstance(other, GFnum):
other = other.num
return GFnum(self.num ^ other, self.gf)
def __sub__(self, other):
if isinstance(other, GFnum):
other = other.num
return GFnum(self.num ^ other, self.gf)
def __mul__(self, other):
if isinstance(other, GFnum):
other = other.num
return GFnum(self.gf.table[self.num][other], self.gf)
def __div__(self, other):
if isinstance(other, GFnum):
other = other.num
otherinverse = self.gf.inverses[other]
return GFnum(self.gf.table[self.num][otherinverse], self.gf)
def __repr__(self):
return str(self.num)
def make2dgf(a, gf):
return [[GFnum(ord(y) if isinstance(y, str) else int(y), gf) for y in x] for x in a]
def eliminate(rows, gf):
# rows is a list of vectors in numpy.matrix
# start at the top
for i in xrange(len(rows)):
# print everything so we know what's happening
#print "About to work with row %d" % i
#print rows
# find the rows that have leading zeros
candidaterows = set([x for x, y in enumerate(rows)])
for index, row in enumerate(rows):
for x in xrange(i):
if int(row.item(x).num) != 0:
candidaterows.remove(index)
break
# find a row where there's something in column i
goodrows = [x for x in candidaterows if rows[x].item(i).num != 0]
if goodrows == None:
# this means we fail encoding, should throw a fit i guess
raise Exception("Couldn't decode coefficient %d" % i)
# start with the highest column and baleet from all the others
rownum = goodrows[0]
#print "using row %d" % rownum
row = rownum
# divide first item so it's 1 (multiply by inverse)
value = rows[rownum].item(i)
inverse = gf.inverses[value.num]
#print "inverse is %d" % inverse
rows[rownum] = rows[rownum] * inverse
# subtract this row from all other rows
for delnum in xrange(len(rows)):
if delnum != rownum:
# find the value of the item at that column
delvalue = rows[delnum].item(i)
# multiply to clear it out
eliminator = rows[rownum] * delvalue
rows[delnum] = rows[delnum] - eliminator
#print "decoding, rows:"
#print rows
return rows
# this should live inside Decoder i guess
def eliminatev2(rows, gf):
# rows is a list of vectors in numpy.matrix
# start at the top
for i in xrange(len(rows)):
# print everything so we know what's happening
#print "About to work with row %d" % i
#print rows
# find the rows that have leading zeros
print "Working with row %d" % (i+1)
candidaterows = set([x for x, y in enumerate(rows)])
for index, row in enumerate(rows):
for x in xrange(i):
if int(row[x].num) != 0:
candidaterows.remove(index)
break
# find a row where there's something in column i
goodrows = [x for x in candidaterows if rows[x][i].num != 0]
if goodrows == None:
# this means we fail encoding, should throw a fit i guess
raise Exception("Couldn't decode coefficient %d" % i)
# start with the highest column and baleet from all the others
rownum = goodrows[0]
#print "using row %d" % rownum
row = rownum
# divide first item so it's 1 (multiply by inverse)
value = rows[rownum][i]
inverse = gf.inverses[value.num]
#print "inverse is %d" % inverse
#rows[rownum] = rows[rownum] * inverse
# do this by hand
rows[rownum] = [x*inverse for x in rows[rownum]]
# subtract this row from all other rows
for delnum in xrange(len(rows)):
if delnum != rownum:
# find the value of the item at that column
delvalue = rows[delnum][i]
if delvalue.num == 0:
continue
# multiply to clear it out
#eliminator = rows[rownum] * delvalue
#rows[delnum] = rows[delnum] - eliminator
# do this by hand
#eliminator = [x * delvalue for x in rows[rownum]]
rows[delnum] = [rows[delnum][x] - (rows[rownum][x] * delvalue) for x in xrange(len(rows[delnum]))]
# swap this row into place so we get identity
if rownum != i:
rows[i], rows[rownum] = rows[rownum], rows[i]
return rows
# this should live inside Decoder i guess
def eliminatev3(rows, gf):
# start at the top
# create identity matrix and do everything on both
identity = [[GFnum(1, gf) if y == x else GFnum(0, gf) for y in xrange(len(rows))] for x in xrange(len(rows))]
for i in xrange(len(rows)):
# print everything so we know what's happening
#print "About to work with row %d" % i
#print rows
# find the rows that have leading zeros
print "Working with row %d" % (i+1)
candidaterows = set([x for x, y in enumerate(rows)])
for index, row in enumerate(rows):
for x in xrange(i):
if int(row[x].num) != 0:
candidaterows.remove(index)
break
# find a row where there's something in column i
goodrows = [x for x in candidaterows if rows[x][i].num != 0]
if len(goodrows) < 1:
# this means we fail encoding, should throw a fit i guess
raise Exception("Couldn't decode coefficient %d" % i)
# start with the highest column and baleet from all the others
rownum = goodrows[0]
#print "using row %d" % rownum
row = rownum
# divide first item so it's 1 (multiply by inverse)
value = rows[rownum][i]
inverse = gf.inverses[value.num]
#print "inverse is %d" % inverse
#rows[rownum] = rows[rownum] * inverse
# do this by hand
rows[rownum] = [x*inverse for x in rows[rownum]]
identity[rownum] = [x*inverse for x in identity[rownum]]
# subtract this row from all other rows
for delnum in xrange(len(rows)):
if delnum != rownum:
# find the value of the item at that column
delvalue = rows[delnum][i]
if delvalue.num == 0:
continue
# multiply to clear it out
#eliminator = rows[rownum] * delvalue
#rows[delnum] = rows[delnum] - eliminator
# do this by hand
#eliminator = [x * delvalue for x in rows[rownum]]
rows[delnum] = [rows[delnum][x] - (rows[rownum][x] * delvalue) for x in xrange(len(rows[delnum]))]
identity[delnum] = [identity[delnum][x] - (identity[rownum][x] * delvalue) for x in xrange(len(identity[delnum]))]
# swap this row into place so we get identity
if rownum != i:
rows[i], rows[rownum] = rows[rownum], rows[i]
identity[i], identity[rownum] = identity[rownum], identity[i]
#print identity
return rows
class Encoder:
def __init__(self, gf):
self.keys = None
self.numpyrows = None
self.numpieces = 0
self.gf = None
self.length = 0
self.piecelength = 0
self.gf = gf
def prime(self, message, numpieces):
self.numpieces = numpieces
# divide message into pieces
self.length = len(message)
piecelength = self.length / self.numpieces
# this length/piece detection is broken, watchout!
if self.length % self.numpieces > 0:
piecelength = piecelength + 1
extrachars = (piecelength * numpieces) - self.length
# pad for now with ?
message = message + ''.join(['?' for x in xrange(extrachars)])
pieces = [message[i*piecelength:i*piecelength+piecelength] for i in xrange(numpieces)]
# turn into matrix rows
rows = []
for i in xrange(numpieces):
row = [1 if x == i else 0 for x in xrange(numpieces)] + [ord(x) for x in pieces[i]]
#print len(row)
rows.append(row)
self.numpyrows = numpy.matrix(make2dgf(rows, self.gf))
def generatepacket(self):
seedvals = os.urandom(4)
seed = struct.unpack("!L", seedvals)[0]
seedlist = [ord(x) for x in seedvals]
random.seed(seed)
key = numpy.matrix([[GFnum(random.randint(2,254), self.gf) for x in xrange(self.numpieces)]])
message = key * self.numpyrows
# take off the front and put on the seed
messageaslist = message.tolist()[0][self.numpieces:]
messagelist = seedlist + messageaslist
# also return normal list instead of numpy array (double-copies yay)
return messagelist
class Encoderv2:
def __init__(self, gf):
self.keys = None
self.numpyrows = None
self.numpieces = 0
self.gf = None
self.length = 0
self.piecelength = 0
self.gf = gf
def prime(self, message, numpieces):
self.numpieces = numpieces
# divide message into pieces
self.length = len(message)
piecelength = self.length / self.numpieces
self.piecelength = piecelength
# this length/piece detection is broken, watchout!
if self.length % self.numpieces > 0:
piecelength = piecelength + 1
extrachars = (piecelength * numpieces) - self.length
# pad for now with ?
message = message + ''.join(['?' for x in xrange(extrachars)])
pieces = [message[i*piecelength:i*piecelength+piecelength] for i in xrange(numpieces)]
# turn into matrix rows
rows = []
for i in xrange(numpieces):
row = [1 if x == i else 0 for x in xrange(numpieces)] + [ord(x) for x in pieces[i]]
#print len(row)
rows.append(row)
self.rows = rows
#self.numpyrows = numpy.matrix(make2dgf(rows, self.gf))
def generatepacket(self):
seedvals = os.urandom(4)
seed = struct.unpack("!L", seedvals)[0]
seedlist = [ord(x) for x in seedvals]
random.seed(seed)
#key = numpy.matrix([[GFnum(random.randint(2,254), self.gf) for x in xrange(self.numpieces)]])
#key = [random.randint(2,254) for x in xrange(self.numpieces)]
start = random.randint(0, self.numpieces)
nonzeroes = [x % self.numpieces for x in xrange(start, start+10)]
key = [0 for x in xrange(self.numpieces)]
for x in nonzeroes:
key[x] = random.randint(2,254)
#message = key * self.numpyrows
# do the multiplication by hand
message = []
for i in xrange(len(self.rows[0])):
mtotal = 0
for j in xrange(self.numpieces):
num = self.rows[j][i]
keybit = key[j]
m = self.gf.table[num][keybit]
mtotal = mtotal ^ m
message.append(mtotal)
# cast as GFnum to make things a bit easier for now
messagegf = [GFnum(x, self.gf) for x in message]
# take off the front and put on the seed
messageaslist = messagegf[self.numpieces:]
messagelist = seedlist + messageaslist
# also return normal list instead of numpy array (double-copies yay)
return messagelist
class Decoder:
def __init__(self, gf):
self.gf = gf
def decode(self, messages, numpieces):
# regenerate coefficients from seed
rowstodecode = []
for row in messages:
seed = (row[0] << 24) + (row[1] << 16) + (row[2] << 8) + row[3]
random.seed(seed)
coefs = [GFnum(random.randint(2, 254), self.gf) for x in xrange(numpieces)]
rowtodecode = numpy.matrix(coefs + row[4:])
rowstodecode.append(rowtodecode)
# solve
rows = eliminate(rowstodecode, self.gf)
# need to decode
# test for identity (will code later)
# assume that it is solved and in correct order
answers = [x.tolist()[0][numpieces:] for x in rows]
#print answers
output = ''.join([''.join([chr(b.num) for b in a]) for a in answers])
return output
#print output
class Decoderv2:
def __init__(self, gf):
self.gf = gf
def decode(self, messages, numpieces):
# regenerate coefficients from seed
rowstodecode = []
for row in messages:
seed = (row[0] << 24) + (row[1] << 16) + (row[2] << 8) + row[3]
random.seed(seed)
#nonzeroes = random.sample(xrange(numpieces), 10)
start = random.randint(0, numpieces)
nonzeroes = [x % numpieces for x in xrange(start, start+10)]
key = [GFnum(0, self.gf) for x in xrange(numpieces)]
for x in nonzeroes:
key[x] = GFnum(random.randint(2,254), self.gf)
#coefs = [GFnum(random.randint(2, 254), self.gf) for x in xrange(numpieces)]
rowtodecode = key + row[4:]
rowstodecode.append(rowtodecode)
# solve
rows = eliminatev3(rowstodecode, self.gf)
# need to decode
# test for identity (will code later)
# assume that it is solved and in correct order
answers = [x[numpieces:] for x in rows]
#print answers
output = ''.join([''.join([chr(b.num) for b in a]) for a in answers])
return output
#print output
def testencode():
# 80 character string
plaintext = "big string with lots of characters. i am telling a story about stuff and thingsa"
# 1170 characters of lorem ipsum
loremipsum = open('loremipsum.txt').read()
gf = GF256(open('gf256.json').read())
print "Encoding"
t0 = time.clock()
e = Encoder(gf)
numpieces = 100
e.prime(loremipsum, numpieces)
#e.prime(plaintext, numpieces)
rows = []
for i in xrange(numpieces):
print "Generating piece %d" % (i+1)
rows.append(e.generatepacket())
t1 = time.clock()
print "Time for encode: %fs" % (t1-t0)
#print rows
print "Decoding"
d = Decoder(gf)
posttext = d.decode(rows, numpieces)
t2 = time.clock()
print posttext
print "Time for decode: %fs" % (t2-t1)
def testencodev2():
# 80 character string
plaintext = "big string with lots of characters. i am telling a story about stuff and thingsa"
# 1170 characters of lorem ipsum
loremipsum = open('loremipsum.txt').read()
gf = GF256(open('gf256.json').read())
print "Encoding (v2)"
t0 = time.clock()
e = Encoderv2(gf)
numpieces = 100
e.prime(loremipsum, numpieces)
#e.prime(plaintext, numpieces)
rows = []
for i in xrange(numpieces):
print "Generating piece %d" % (i+1)
rows.append(e.generatepacket())
t1 = time.clock()
print "Time for encode: %fs" % (t1-t0)
#print rows
print "Decoding"
d = Decoderv2(gf)
posttext = d.decode(rows, numpieces)
t2 = time.clock()
print posttext
print "Time for decode: %fs" % (t2-t1)
def testeliminate():
gf = GF256(open('gf256.json').read())
message = numpy.matrix(make2dgf([[1, 0, 0, 0, 'G', 'a', 'r', 'y'], [0, 1, 0, 0, ' ', 'c', 'o', 'd'], [0, 0, 1, 0, 'i', 'n', 'g', ' '], [0, 0, 0, 1, 'F', 'T', 'W', '!']], gf))
key1 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]])
key2 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]])
key3 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]])
key4 = numpy.matrix([[GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf), GFnum(random.randint(2,254), gf)]])
m1 = key1 * message
m2 = key2 * message
m3 = key3 * message
m4 = key4 * message
rows = eliminate([m1, m2, m3, m4], gf)
print rows
def main():
# just generate stuff and print
generator = 0b100011011 # x^8 + x^4 + x^3 + x + 1 = 100011011
fieldsize = 256
gf256 = makegaloisfield(fieldsize, generator)
print gf256["table"]
print gf256["inverses"]
if __name__ == "__main__":
main()
| 34.666004
| 176
| 0.631359
| 2,528
| 17,437
| 4.332674
| 0.124604
| 0.016434
| 0.02246
| 0.035698
| 0.787273
| 0.77586
| 0.761253
| 0.740345
| 0.730667
| 0.720077
| 0
| 0.029846
| 0.242932
| 17,437
| 502
| 177
| 34.73506
| 0.799864
| 0.244595
| 0
| 0.595808
| 1
| 0
| 0.046305
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | null | 0
| 0.023952
| null | null | 0.053892
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
c8a3538afc58bb8ca2dd803be5edd17549a1af8b
| 2,358
|
py
|
Python
|
cgi-bin/testdir.py
|
pinckert/pinckert.com
|
7d6ce3e37c6c39c1deebbceb40f4442d34c20e23
|
[
"Apache-2.0"
] | 1
|
2020-07-29T22:45:07.000Z
|
2020-07-29T22:45:07.000Z
|
cgi-bin/testdir.py
|
pinckert/pinckert.com
|
7d6ce3e37c6c39c1deebbceb40f4442d34c20e23
|
[
"Apache-2.0"
] | null | null | null |
cgi-bin/testdir.py
|
pinckert/pinckert.com
|
7d6ce3e37c6c39c1deebbceb40f4442d34c20e23
|
[
"Apache-2.0"
] | null | null | null |
<<<<<<< HEAD
#!/usr/bin/python
import os
import sys
import json
def buildLinks(fileList, path):
# path is the location from root (script executes in cgi-bin)
# returns: array of dictionary
# file content format:
# name: filename
# is_dir: true if directory
# link: action to execute when clicked
# size: file size
# date: creation date
#
file_info = []
parentDir = path[:path.rfind('/')]
dotdot = {"name": "..", "is_dir": True, "size": 0, "date": 0}
for file in fileList:
fileLoc = "../"+path+'/'+file
entry = {
"file": file,
"size": os.path.getsize(fileLoc),
"is_dir": os.path.isdir(fileLoc),
"date": os.path.getmtime(fileLoc),
"link": ""
}
if entry["is_dir"]:
entry["fileLoc"] = fileLoc = "\\"+fileLoc
link = "http://www.pinckert.com/cgi-bin/dir.py?path="+path
entry["link"] = link
else:
entry["link"] = "http://www.pinckert.com/"+path+'/'+file
file_info.append(entry)
return file_info;
path = "tools/calendar"
targetDir = "../"+path
print targetDir
files = os.listdir(targetDir)
print files
info = buildLinks(files, path)
print info
=======
#!/usr/bin/python
import os
import sys
import json
def buildLinks(fileList, path):
# path is the location from root (script executes in cgi-bin)
# returns: array of dictionary
# file content format:
# name: filename
# is_dir: true if directory
# link: action to execute when clicked
# size: file size
# date: creation date
#
file_info = []
parentDir = path[:path.rfind('/')]
dotdot = {"name": "..", "is_dir": True, "size": 0, "date": 0}
for file in fileList:
fileLoc = "../"+path+'/'+file
entry = {
"file": file,
"size": os.path.getsize(fileLoc),
"is_dir": os.path.isdir(fileLoc),
"date": os.path.getmtime(fileLoc),
"link": ""
}
if entry["is_dir"]:
entry["fileLoc"] = fileLoc = "\\"+fileLoc
link = "http://www.pinckert.com/cgi-bin/dir.py?path="+path
entry["link"] = link
else:
entry["link"] = "http://www.pinckert.com/"+path+'/'+file
file_info.append(entry)
return file_info;
path = "tools/calendar"
targetDir = "../"+path
print targetDir
files = os.listdir(targetDir)
print files
info = buildLinks(files, path)
print info
>>>>>>> cb97fa344060fddee1b1b68722c1e6b281f454c7
| 25.630435
| 65
| 0.61408
| 300
| 2,358
| 4.78
| 0.23
| 0.027894
| 0.025105
| 0.052999
| 0.969317
| 0.969317
| 0.969317
| 0.969317
| 0.969317
| 0.969317
| 0
| 0.015127
| 0.215013
| 2,358
| 91
| 66
| 25.912088
| 0.759589
| 0.236641
| 0
| 0.923077
| 0
| 0
| 0.175281
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | null | 0
| 0.092308
| null | null | 0.092308
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
b518718385af9f4cd41fe271952d081b06d67cee
| 10,405
|
py
|
Python
|
test_units.py
|
B2dfir/gcp_timeliner
|
6142f2f3f27f4a1f2101866a3b9967232017d135
|
[
"Apache-2.0"
] | 6
|
2019-09-22T02:54:59.000Z
|
2020-07-31T10:36:01.000Z
|
test_units.py
|
B2dfir/gcp_timeliner
|
6142f2f3f27f4a1f2101866a3b9967232017d135
|
[
"Apache-2.0"
] | null | null | null |
test_units.py
|
B2dfir/gcp_timeliner
|
6142f2f3f27f4a1f2101866a3b9967232017d135
|
[
"Apache-2.0"
] | 1
|
2019-09-26T03:36:01.000Z
|
2019-09-26T03:36:01.000Z
|
import os
import csv
import json
import gcp_timeliner
# To use this file, run the following command from this directory:
# pytest test_functions.py -v
def test_readMap():
testVal = gcp_timeliner.readMap("./maps/iam_PolicyUpdated.map")
assert type(testVal) is dict
assert len(testVal) == 2
def test_santization():
testString = "', '| ; |': {|}, {|\n|{|\t|"
testVal = gcp_timeliner.sanitize(testString, "xlsx")
assert len(testVal) == 37
def test_santizationFlat():
testString = "', '| ; |': {|}, {|\n|{|\t|"
testVal = gcp_timeliner.sanitize(testString, "csv")
assert len(testVal) == 25
def test_parse_log_which_matched_a_map_file():
logLine = '{"insertId":"-sumke9d4ngo","logName":"projects/peak-empire-243713/logs/cloudaudit.googleapis.com%2Factivity","protoPayload":{"@type":"type.googleapis.com/google.cloud.audit.AuditLog","authenticationInfo":{"principalEmail":"smash@smashsecurity.com"},"authorizationInfo":[{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}},{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}}],"methodName":"SetIamPolicy","request":{"@type":"type.googleapis.com/google.iam.v1.SetIamPolicyRequest","policy":{"bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"}],"etag":"BwWLXEtneGc="},"resource":"peak-empire-243713"},"requestMetadata":{"callerIp":"12.34.56.78","callerSuppliedUserAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)","destinationAttributes":{},"requestAttributes":{}},"resourceName":"projects/peak-empire-243713","response":{"@type":"type.googleapis.com/google.iam.v1.Policy","bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"}],"etag":"BwWLbsx/jl4="},"serviceData":{"@type":"type.googleapis.com/google.iam.v1.logging.AuditData","policyDelta":{"bindingDeltas":[{"action":"ADD","member":"serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com","role":"roles/iam.securityReviewer"}]}},"serviceName":"cloudresourcemanager.googleapis.com","status":{}},"receiveTimestamp":"2019-06-16T11:01:17.592409471Z","resource":{"labels":{"project_id":"peak-empire-243713"},"type":"project"},"severity":"NOTICE","timestamp":"2019-06-16T11:01:16.571Z"}'
mapString = '\
{\
"conditions":{\
"resource.type":"project",\
"protoPayload.methodName":"SetIamPolicy",\
"protoPayload.serviceData.policyDelta.bindingDeltas":"*"\
},\
"fields":{\
"insertId":"insertId",\
"timestamp":"timestamp",\
"map":"string[iam_policyUpdated]",\
"project":"resource.labels.project_id",\
"account":"protoPayload.authenticationInfo.principalEmail",\
"ip":"protoPayload.requestMetadata.callerIp",\
"userAgent":"protoPayload.requestMetadata.callerSuppliedUserAgent",\
"type":"resource.type",\
"method":"protoPayload.methodName",\
"severity":"severity",\
"summary":"protoPayload.serviceData.policyDelta.bindingDeltas",\
"detail":"[fulljson]"\
}\
}'
logObject = json.loads(logLine)
m = json.loads(mapString)
output = gcp_timeliner.parseLog(m, logObject, False)
assert output['insertId'] == "-sumke9d4ngo"
assert output['datetime'] == "2019-06-16T11:01:16.571Z"
assert output['map'] == "iam_policyUpdated"
assert output['account'] == "smash@smashsecurity.com"
assert output['ip'] == "12.34.56.78"
assert output['userAgent'] == "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)"
assert output['type'] == "project"
assert output['timestamp_desc'] == "SetIamPolicy"
assert output['severity'] == "NOTICE"
assert "serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com" in output['message']
assert "2019-06-16T11:01:16.571Z" in output['detail']
def test_parse_log_using_default_logic():
logLine = '{"insertId":"-sumke9d4ngo","logName":"projects/peak-empire-243713/logs/cloudaudit.googleapis.com%2Factivity","protoPayload":{"@type":"type.googleapis.com/google.cloud.audit.AuditLog","authenticationInfo":{"principalEmail":"smash@smashsecurity.com"},"authorizationInfo":[{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}},{"granted":true,"permission":"resourcemanager.projects.setIamPolicy","resource":"projects/peak-empire-243713","resourceAttributes":{}}],"methodName":"SetIamPolicy","request":{"@type":"type.googleapis.com/google.iam.v1.SetIamPolicyRequest","policy":{"bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"}],"etag":"BwWLXEtneGc="},"resource":"peak-empire-243713"},"requestMetadata":{"callerIp":"12.34.56.78","callerSuppliedUserAgent":"Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)","destinationAttributes":{},"requestAttributes":{}},"resourceName":"projects/peak-empire-243713","response":{"@type":"type.googleapis.com/google.iam.v1.Policy","bindings":[{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.admin"},{"members":["serviceAccount:service-273873411461@compute-system.iam.gserviceaccount.com"],"role":"roles/compute.serviceAgent"},{"members":["user:barnabyskeggs@gmail.com"],"role":"roles/compute.storageAdmin"},{"members":["serviceAccount:273873411461-compute@developer.gserviceaccount.com","serviceAccount:273873411461@cloudservices.gserviceaccount.com"],"role":"roles/editor"},{"members":["serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com"],"role":"roles/iam.securityReviewer"},{"members":["user:smash@smashsecurity.com"],"role":"roles/owner"},{"members":["user:smash@smashsecurity.com"],"role":"roles/resourcemanager.organizationAdmin"}],"etag":"BwWLbsx/jl4="},"serviceData":{"@type":"type.googleapis.com/google.iam.v1.logging.AuditData","policyDelta":{"bindingDeltas":[{"action":"ADD","member":"serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com","role":"roles/iam.securityReviewer"}]}},"serviceName":"cloudresourcemanager.googleapis.com","status":{}},"receiveTimestamp":"2019-06-16T11:01:17.592409471Z","resource":{"labels":{"project_id":"peak-empire-243713"},"type":"project"},"severity":"NOTICE","timestamp":"2019-06-16T11:01:16.571Z"}'
logObject = json.loads(logLine)
output = gcp_timeliner.defaultParser(logObject, False)
assert output['insertId'] == "-sumke9d4ngo"
assert output['datetime'] == "2019-06-16T11:01:16.571Z"
assert output['map'] == "default"
assert output['account'] == "smash@smashsecurity.com"
assert output['ip'] == "12.34.56.78"
assert output['userAgent'] == "Mozilla/5.0 (Windows NT 10.0; Win64; x64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/74.0.3729.169 Safari/537.36,gzip(gfe)"
assert output['type'] == "project"
assert output['timestamp_desc'] == "SetIamPolicy"
assert output['severity'] == "NOTICE"
assert "serviceAccount:logcollector@peak-empire-243713.iam.gserviceaccount.com" in output['message']
assert "projects/peak-empire-243713" in output['detail']
def test_writeCsv():
with open('unit_test.csv', 'w', newline='') as csvfile:
fieldnames = ['insertId', 'timestamp', 'map', 'project', 'account', 'ip', 'userAgent', 'type', 'method', 'severity', 'summary', 'detail']
writer = csv.DictWriter(csvfile, fieldnames=fieldnames, delimiter='|')
writer.writeheader()
out = {}
out['insertId'] = "a"
out['datetime'] = "b"
out['map'] = "c"
out['project'] = "d"
out['account'] = "e"
out['ip'] = "f"
out['userAgent'] = "g"
out['type'] = "h"
out['timestamp_desc'] = "i"
out['severity'] = "j"
out['message'] = "k"
out['detail'] = "l"
gcp_timeliner.writeCsv(out, writer)
with open('unit_test.csv') as f:
contents = f.read()
assert len(contents) == 112
os.remove("unit_test.csv")
| 94.590909
| 3,096
| 0.701682
| 1,116
| 10,405
| 6.509857
| 0.198925
| 0.028906
| 0.049553
| 0.05203
| 0.803441
| 0.792429
| 0.789814
| 0.789814
| 0.776325
| 0.776325
| 0
| 0.060989
| 0.093897
| 10,405
| 110
| 3,097
| 94.590909
| 0.709588
| 0.008842
| 0
| 0.26087
| 0
| 0.043478
| 0.753855
| 0.646785
| 0
| 0
| 0
| 0
| 0.293478
| 1
| 0.065217
| false
| 0
| 0.043478
| 0
| 0.108696
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 9
|
b562665cfd1d7508affb387335426c548940b1db
| 11,031
|
py
|
Python
|
src/scripts/plotting.py
|
esowc/aq-biascorrection
|
4fada30d71908c2e345c5e2fd0482c969dde19bd
|
[
"MIT"
] | 9
|
2021-05-25T12:20:41.000Z
|
2021-11-02T12:29:00.000Z
|
src/scripts/plotting.py
|
esowc/aq-biascorrection
|
4fada30d71908c2e345c5e2fd0482c969dde19bd
|
[
"MIT"
] | 8
|
2021-06-15T06:21:47.000Z
|
2021-09-10T08:07:13.000Z
|
src/scripts/plotting.py
|
esowc/aq-biascorrection
|
4fada30d71908c2e345c5e2fd0482c969dde19bd
|
[
"MIT"
] | 3
|
2021-10-02T03:29:25.000Z
|
2021-12-08T03:22:24.000Z
|
import logging
import os
import sys
from pathlib import Path
import click
from pytz import NonExistentTimeError
from src import constants
from src.data import utils
from src.visualization.data_visualization import StationTemporalSeriesPlotter
PATH = click.Path(exists=True, path_type=Path)
@click.command()
@click.argument(
"varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True)
)
@click.argument("country", type=click.STRING)
@click.option("-d", "--data_path", type=PATH, required=True)
@click.option(
"-m",
"--metadata_path",
type=PATH,
default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"),
)
@click.option("-s", "--station", type=click.STRING, default=None)
@click.option(
"-o",
"--output_path",
type=PATH,
default=None,
help="Output path of the figure to be saved.",
)
@click.option(
"-a",
"--agg_by",
type=click.Choice(["daily", "monthly"]),
default=None,
help="Indicates if any temporal aggregation is" " needed.",
metavar="<str>",
)
def main_line(
varname: str,
country: str,
data_path: Path,
metadata_path: Path,
station: str,
output_path: Path = None,
agg_by: str = None,
):
"""Generates a plot for the variable specified for all stations located in
the country chosen.
Args:
varname (str): The name of the variable to consider. Specify 'all' for
selecting all variables. Choiches are: 'pm25', 'o3', 'no2'. \n
country (str): The country to consider. Specify 'all' for selecting
all countries with processed data.
"""
logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt)
countries = utils.get_countries() if country == "all" else [country]
varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname]
for var in varnames:
for country in countries:
temp_agg = agg_by.capitalize() if agg_by else "Raw"
if output_path is not None:
output_folder = output_path / var / "StationBias" / temp_agg
os.makedirs(output_folder, exist_ok=True)
else:
output_folder = None
logging.info(f"Processing plot for {var} bias for {country}.")
StationTemporalSeriesPlotter(
var,
country,
data_path,
metadata_path,
[station] if station else station,
).plot_data(output_folder, agg=agg_by)
logging.info("The script finished!")
@click.command()
@click.argument(
"varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True)
)
@click.argument("country", type=click.STRING)
@click.option("-d", "--data_path", type=PATH, required=True)
@click.option(
"-m",
"--metadata_path",
type=PATH,
default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"),
)
@click.option("-s", "--station", type=click.STRING, default=None)
@click.option(
"-o",
"--output_path",
type=PATH,
default=None,
help="Output path of the figure to be saved.",
)
@click.option(
"-a",
"--agg_by",
type=click.Choice(["daily", "monthly"]),
default=None,
help="Indicates if any temporal aggregation is" " needed.",
metavar="<str>",
)
def main_corrs(
varname: str,
country: str,
data_path: Path,
metadata_path: Path,
station: str,
output_path: Path = None,
agg_by: str = None,
):
"""Generates a figure showing the correlation between all the features and
the forecast bias.
Args:
varname (str): The name of the variable to consider. Specify 'all' for
selecting all variables. Choiches are: 'pm25', 'o3', 'no2'. \n
country (str): The country to consider. Specify 'all' for selecting
all countries with processed data.
"""
logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt)
countries = utils.get_countries() if country == "all" else [country]
varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname]
for var in varnames:
for country in countries:
temp_agg = agg_by.capitalize() if agg_by else "Raw"
if output_path is not None:
output_folder = output_path / var / "Correlations" / temp_agg
os.makedirs(output_folder, exist_ok=True)
else:
output_folder = None
logging.info(f"Processing correlation with {var} bias for " f"{country}.")
StationTemporalSeriesPlotter(
var,
country,
data_path,
metadata_path,
[station] if station else station,
).plot_correlations(output_folder, agg=agg_by)
logging.info("The script finished!")
@click.command()
@click.argument(
"varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True)
)
@click.argument("country", type=click.STRING)
@click.option("-d", "--data_path", type=PATH, required=True)
@click.option(
"-m",
"--metadata_path",
type=PATH,
default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"),
)
@click.option(
"--show_std",
type=click.BOOL,
default=True,
help="Show the " "estimated standard deviation of the dataset.",
)
@click.option(
"-o",
"--output_path",
type=PATH,
default=None,
help="Output path of the figure to be saved.",
)
def main_hourly_bias(
varname: str,
country: str,
data_path: Path,
metadata_path: Path,
show_std: bool = True,
output_path: Path = None,
):
"""Generates a figure showing the correlation between all the features and
the forecast bias.
Args:
varname (str): The name of the variable to consider. Specify 'all' for
selecting all variables. Choiches are: 'pm25', 'o3', 'no2'.\n
country (str): The country to consider. Specify 'all' for selecting
all countries with processed data.
"""
logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt)
countries = utils.get_countries() if country == "all" else [country]
varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname]
for var in varnames:
for country in countries:
logging.info(f"Processing hourly {var} bias for {country}.")
if output_path is not None:
output_folder = output_path / var / "HourlyBias"
os.makedirs(output_folder, exist_ok=True)
else:
output_folder = None
StationTemporalSeriesPlotter(
var, country, data_path, metadata_path
).plot_hourly_bias(show_std, output_folder)
logging.info("The script finished!")
@click.command()
@click.argument(
"varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True)
)
@click.argument("country", type=click.STRING)
@click.option("-d", "--data_path", type=PATH, required=True)
@click.option(
"-m",
"--metadata_path",
type=PATH,
metavar="<str>",
default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"),
)
@click.option(
"-o",
"--output_path",
type=PATH,
default=None,
metavar="<str>",
help="Output path of the figure to be saved.",
)
@click.option(
"-a",
"--agg_by",
type=click.Choice(["daily", "monthly"]),
default=None,
help="Indicates if any temporal aggregation is" " needed.",
metavar="<str>",
)
def main_cdf_bias(
varname: str,
country: str,
data_path: Path,
metadata_path: Path,
output_path: Path = None,
agg_by: str = None,
):
"""Generates a figure showing the empirical Cumulative Distribution
Function (CDF) of the bias observed at each station.
Args:
varname (str): The name of the variable to consider. Specify 'all' for
selecting all variables. Choiches are: 'pm25', 'o3', 'no2'.\n
country (str): The country to consider. Specify 'all' for selecting
all countries with processed data.
"""
logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt)
countries = utils.get_countries() if country == "all" else [country]
varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname]
for var in varnames:
for country in countries:
temp_agg = agg_by.capitalize() if agg_by else "Raw"
if output_path is not None:
output_folder = output_path / var / "BiasDistribution" / temp_agg
os.makedirs(output_folder, exist_ok=True)
else:
output_folder = None
logging.info(f"Processing CDF of {var} bias for {country}.")
StationTemporalSeriesPlotter(
var, country, data_path, metadata_path
).plot_bias_cdf(output_folder, agg=agg_by)
logging.info("The script finished!")
@click.command()
@click.argument(
"varname", type=click.Choice(["pm25", "o3", "no2", "all"], case_sensitive=True)
)
@click.argument("country", type=click.STRING)
@click.option("-d", "--data_path", type=PATH, required=True)
@click.option(
"-m",
"--metadata_path",
type=PATH,
default=Path(f"{constants.ROOT_DIR}/data/external/stations.csv"),
)
@click.option("-s", "--station", type=click.STRING, default=None)
@click.option(
"-o",
"--output_path",
type=PATH,
default=None,
help="Output path of the figure to be saved.",
)
def main_monthly_bias(
varname: str,
country: str,
data_path: Path,
metadata_path: Path,
station: str,
output_path: Path = None,
):
"""Generates a plot for the variable specified for all stations located in
the country chosen. This plots shows the montly distribution of the bias.
Args:
varname (str): The name of the variable to consider. Specify 'all' for
selecting all variables. Choiches are: 'pm25', 'o3', 'no2'. \n
country (str): The country to consider. Specify 'all' for selecting
all countries with processed data.
"""
logging.basicConfig(stream=sys.stdout, level=logging.INFO, format=constants.log_fmt)
countries = utils.get_countries() if country == "all" else [country]
varnames = ["pm25", "o3", "no2"] if varname == "all" else [varname]
for var in varnames:
for country in countries:
if output_path is not None:
output_folder = output_path / var / "MonthlyBias"
os.makedirs(output_folder, exist_ok=True)
else:
output_folder = None
logging.info(f"Processing bias plot for {var} bias for {country}.")
StationTemporalSeriesPlotter(
var,
country,
data_path,
metadata_path,
[station] if station else station,
).plot_monthly_bias(output_folder)
logging.info("The script finished!")
| 32.539823
| 88
| 0.625782
| 1,360
| 11,031
| 4.975
| 0.108824
| 0.036949
| 0.028377
| 0.02956
| 0.898167
| 0.898167
| 0.896098
| 0.888413
| 0.878658
| 0.874224
| 0
| 0.007207
| 0.245309
| 11,031
| 338
| 89
| 32.636095
| 0.805526
| 0.166349
| 0
| 0.801471
| 0
| 0
| 0.176164
| 0.026053
| 0
| 0
| 0
| 0
| 0
| 1
| 0.018382
| false
| 0
| 0.033088
| 0
| 0.051471
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
a9508496bf993b88dad2217b9e7a92d885ad4627
| 3,820
|
py
|
Python
|
betting.py
|
fredlacs/SoccerPrediction
|
e610d2ec1a89228f6d684460e1860d3931b975c1
|
[
"MIT"
] | null | null | null |
betting.py
|
fredlacs/SoccerPrediction
|
e610d2ec1a89228f6d684460e1860d3931b975c1
|
[
"MIT"
] | null | null | null |
betting.py
|
fredlacs/SoccerPrediction
|
e610d2ec1a89228f6d684460e1860d3931b975c1
|
[
"MIT"
] | null | null | null |
def test_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05):
result = {
'spend': 0,
'return': 0,
}
for i in range(0, len(predictions)):
probabilities = predictions[i]['probabilities']
if probabilities[1] > (1 / test_features['odds-draw'][i]) + bet_difference:
result['spend'] = result['spend'] + 1
if test_labels[i] == 'D':
result['return'] = result['return'] + test_features['odds-draw'][i]
result['performance'] = result['return'] / result['spend']
return result
def test_odd_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05):
result = {
'spend': 0,
'return': 0,
}
for i in range(0, len(predictions)):
probabilities = predictions[i]['probabilities']
if probabilities[1] > (1 / test_features['odds-draw'][i]) + bet_difference:
result['spend'] = result['spend'] + 1
if test_labels[i] == 'D':
result['return'] = result['return'] + test_features['odds-draw'][i]
result['performance'] = result['return'] / result['spend']
return result
def test_home_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05):
result = {
'spend': 0,
'return': 0,
}
for i in range(0, len(predictions)):
probabilities = predictions[i]['probabilities']
if probabilities[0] > (1 / test_features['odds-home'][i]) + bet_difference:
result['spend'] = result['spend'] + 1
if test_labels[i] == 'H':
result['return'] = result['return'] + test_features['odds-home'][i]
result['performance'] = result['return'] / result['spend']
return result
def test_away_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05):
result = {
'spend': 0,
'return': 0,
}
for i in range(0, len(predictions)):
probabilities = predictions[i]['probabilities']
# if probabilities[2] > (1 / test_features['odds-away'][i]) + bet_difference:
result['spend'] = result['spend'] + 1
if test_labels[i] == 'A':
result['return'] = result['return'] + test_features['odds-away'][i]
result['performance'] = result['return'] / result['spend']
return result
def test_mixt_betting_stategy(predictions, test_features, test_labels, bet_difference=0.05):
result = {
'spend': 0,
'return': 0,
}
betting_options = ["H", "D", "A"]
for i in range(0, len(predictions)):
max_prob = 0
probabilities = predictions[i]['probabilities']
for i in range(0, 3):
if probabilities[i] > max_prob:
max_prob = probabilities[i]
to_bet_on = betting_options[i]
if to_bet_on == "A":
# if max_prob > (1 / test_features['odds-away'][i]) + bet_difference:
result['spend'] = result['spend'] + 1
if test_labels[i] == 'A':
result['return'] = result['return'] + test_features['odds-away'][i]
if to_bet_on == "H":
# if probabilities[0] > (1 / test_features['odds-home'][i]) + bet_difference:
result['spend'] = result['spend'] + 1
if test_labels[i] == 'H':
result['return'] = result['return'] + test_features['odds-home'][i]
if to_bet_on == "D":
# if probabilities[1] > (1 / test_features['odds-draw'][i]) + bet_difference:
result['spend'] = result['spend'] + 1
if test_labels[i] == 'D':
result['return'] = result['return'] + test_features['odds-draw'][i]
result['performance'] = result['return'] / result['spend']
return result
| 33.80531
| 92
| 0.567801
| 443
| 3,820
| 4.735892
| 0.088036
| 0.125834
| 0.106768
| 0.056721
| 0.92183
| 0.902765
| 0.902765
| 0.890372
| 0.890372
| 0.890372
| 0
| 0.019031
| 0.270942
| 3,820
| 113
| 93
| 33.80531
| 0.734291
| 0.077487
| 0
| 0.74359
| 0
| 0
| 0.138352
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.064103
| false
| 0
| 0
| 0
| 0.128205
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
8d59dc45c8fd053c1910599a3930ce2f986d2991
| 6,323
|
py
|
Python
|
tests/test_reverse_translate.py
|
williamabreu/routeros-cgnat
|
222ad014cb81d5608f38b591e80ea861efc738db
|
[
"MIT"
] | 3
|
2020-09-08T20:52:36.000Z
|
2021-09-09T15:10:15.000Z
|
tests/test_reverse_translate.py
|
williamabreu/routeros-cgnat
|
222ad014cb81d5608f38b591e80ea861efc738db
|
[
"MIT"
] | null | null | null |
tests/test_reverse_translate.py
|
williamabreu/routeros-cgnat
|
222ad014cb81d5608f38b591e80ea861efc738db
|
[
"MIT"
] | null | null | null |
import unittest
from collections import OrderedDict
from ipaddress import IPv4Address, IPv4Network
from pycgnat.translator.reverse import cgnat_reverse
class TestReverseTranslate(unittest.TestCase):
def setUp(self):
self.privnet = IPv4Network("100.64.0.0/20")
self.pubnet = IPv4Network("203.0.113.0/25")
self.ip = IPv4Address("203.0.113.1")
self.port = 1537
def test_cgnat_reverse(self):
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 1536
),
OrderedDict(
private_ip=IPv4Address("100.64.0.0"), port_range=(1536, 3535)
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 2534
),
OrderedDict(
private_ip=IPv4Address("100.64.0.0"), port_range=(1536, 3535)
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 3535
),
OrderedDict(
private_ip=IPv4Address("100.64.0.0"), port_range=(1536, 3535)
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.127"), 3536
),
OrderedDict(
private_ip=IPv4Address("100.64.0.255"), port_range=(3536, 5535)
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.127"), 4534
),
OrderedDict(
private_ip=IPv4Address("100.64.0.255"), port_range=(3536, 5535)
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.127"), 5535
),
OrderedDict(
private_ip=IPv4Address("100.64.0.255"), port_range=(3536, 5535)
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.31"), 6534
),
OrderedDict(
private_ip=IPv4Address("100.64.1.31"), port_range=(5536, 7535)
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.0"), 60534
),
OrderedDict(
private_ip=IPv4Address("100.64.14.128"),
port_range=(59536, 61535),
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.3"), 65535
),
OrderedDict(
private_ip=IPv4Address("100.64.15.131"),
port_range=(63536, 65535),
),
)
self.assertEqual(
cgnat_reverse(
self.privnet, self.pubnet, IPv4Address("203.0.113.3"), 63536
),
OrderedDict(
private_ip=IPv4Address("100.64.15.131"),
port_range=(63536, 65535),
),
)
def test_ip_out_of_range(self):
self.assertRaises(
ValueError,
cgnat_reverse,
self.privnet,
self.pubnet,
IPv4Address("1.1.1.1"),
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
self.privnet,
self.pubnet,
IPv4Address("203.0.113.128"),
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
self.privnet,
self.pubnet,
IPv4Address("203.0.113.129"),
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
self.privnet,
self.pubnet,
IPv4Address("203.0.113.254"),
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
self.privnet,
self.pubnet,
IPv4Address("203.0.113.255"),
self.port,
)
def test_invalid_port(self):
self.assertRaises(
ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 0
)
self.assertRaises(
ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1
)
self.assertRaises(
ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1024
)
self.assertRaises(
ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1025
)
self.assertRaises(
ValueError, cgnat_reverse, self.privnet, self.pubnet, self.ip, 1535
)
self.assertRaises(
ValueError,
cgnat_reverse,
self.privnet,
self.pubnet,
self.ip,
65536,
)
self.assertRaises(
ValueError,
cgnat_reverse,
self.privnet,
self.pubnet,
self.ip,
99999,
)
def test_invalid_ratio(self):
self.assertRaises(
ValueError,
cgnat_reverse,
self.pubnet,
self.privnet,
self.ip,
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
IPv4Network("10.0.0.0/30"),
IPv4Network("10.1.0.0/26"),
self.ip,
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
IPv4Network("10.1.0.0/26"),
IPv4Network("10.0.0.0/30"),
self.ip,
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
IPv4Network("10.1.0.0/21"),
IPv4Network("10.0.0.0/27"),
self.ip,
self.port,
)
self.assertRaises(
ValueError,
cgnat_reverse,
IPv4Network("10.1.0.0/23"),
IPv4Network("10.0.0.0/27"),
self.ip,
self.port,
)
| 29.273148
| 79
| 0.48458
| 594
| 6,323
| 5.060606
| 0.127946
| 0.115768
| 0.127745
| 0.16833
| 0.826347
| 0.826347
| 0.78809
| 0.772788
| 0.772788
| 0.772788
| 0
| 0.131824
| 0.406136
| 6,323
| 215
| 80
| 29.409302
| 0.668708
| 0
| 0
| 0.673077
| 0
| 0
| 0.066108
| 0
| 0
| 0
| 0
| 0
| 0.129808
| 1
| 0.024038
| false
| 0
| 0.019231
| 0
| 0.048077
| 0
| 0
| 0
| 0
| null | 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
8d9809712631984036063f59c470461656d9c0b4
| 69
|
py
|
Python
|
python/String/1.py
|
MakeIoTReal/PythonBasic
|
844951ce8122523ad9aed4b7979df44520d92101
|
[
"Unlicense"
] | null | null | null |
python/String/1.py
|
MakeIoTReal/PythonBasic
|
844951ce8122523ad9aed4b7979df44520d92101
|
[
"Unlicense"
] | null | null | null |
python/String/1.py
|
MakeIoTReal/PythonBasic
|
844951ce8122523ad9aed4b7979df44520d92101
|
[
"Unlicense"
] | null | null | null |
print('Hello')
print("Hello")
print('Hello \"World\"')
print("\"d\"")
| 17.25
| 24
| 0.594203
| 9
| 69
| 4.555556
| 0.444444
| 0.731707
| 0.731707
| 0.97561
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.057971
| 69
| 4
| 25
| 17.25
| 0.630769
| 0
| 0
| 0
| 0
| 0
| 0.371429
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 1
|
0
| 7
|
a5e8091a9ec4a4ade6dec8a217e2dd1e16a02d02
| 10,741
|
py
|
Python
|
EvoScript.py
|
JonatasFontele/EvoScript
|
a6dfede9f73b703185335267669ea9cefe2a651a
|
[
"MIT"
] | null | null | null |
EvoScript.py
|
JonatasFontele/EvoScript
|
a6dfede9f73b703185335267669ea9cefe2a651a
|
[
"MIT"
] | null | null | null |
EvoScript.py
|
JonatasFontele/EvoScript
|
a6dfede9f73b703185335267669ea9cefe2a651a
|
[
"MIT"
] | null | null | null |
# -*- coding: utf-8 -*-
# Evo Bracket Sort Script created by Jony Walker.
# Script ordenador de chaves da Evo feito por Jony Walker.
file = open('entrada.txt', 'r') #Abre e le um arquivo txt.
lista = file.readlines() #Le todas as linhas salvas em file e salva na memória virtual de lista.
file = open('chaveamento.txt', 'w') #Abre ou cria um arquivo txt para ser escrito.
number_of_lines = 0
name = []
for line in lista: #Iteracao.
if line != "\n": #Se a line nao for vazia, continue.
number_of_lines += 1 #Contador.
name.append(line) #Adiciona cada linha a cada iteracao ao vetor 'name'.
if (number_of_lines <= 16): #Se quantidade de inscritos for menor ou igual a 16, imprima chave para 8 confrontos.
while (number_of_lines < 16):
name.append("ninguem")
number_of_lines += 1
chaves ="""[fase]
[luta=A | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=B | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=C | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=D | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=E | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=F | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=G | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=H | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=I | player1=A | player2=B | resultado_p1=? | resultado_p2=?]
[luta=II | player1=C | player2=D | resultado_p1=? | resultado_p2=?]
[luta=III | player1=E | player2=F | resultado_p1=? | resultado_p2=?]
[luta=IV | player1=G | player2=H | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=1 | player1=I | player2=II | resultado_p1=? | resultado_p2=?]
[luta=2 | player1=III | player2=IV | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=X | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?]
[/fase]""" % (name[0], name[1], name[2], name[3], name[4], name[5], name[6], name[7], name[8], name[9], name[10], name[11], name[12], name[13], name[14], name[15])
file.write(chaves)
elif (16 < number_of_lines <= 32): #Se quantidade de inscritos for maior que 16 e menor ou igual a 32, imprima chave para 16 confrontos.
while (number_of_lines < 32):
name.append("ninguem")
number_of_lines += 1
chaves ="""[fase]
[luta=I | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=II | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=III | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=IV | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=V | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=VI | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=VII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=VIII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=IX | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=X | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=XI | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=XII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=XIII | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=XIV | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=XV | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=XVI | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=A | player1=I | player2=II | resultado_p1=? | resultado_p2=?]
[luta=B | player1=III | player2=IV | resultado_p1=? | resultado_p2=?]
[luta=C | player1=V | player2=VI | resultado_p1=? | resultado_p2=?]
[luta=D | player1=VII | player2=VIII | resultado_p1=? | resultado_p2=?]
[luta=E | player1=IX | player2=X | resultado_p1=? | resultado_p2=?]
[luta=F | player1=XI | player2=XII | resultado_p1=? | resultado_p2=?]
[luta=G | player1=XIII | player2=XIV | resultado_p1=? | resultado_p2=?]
[luta=H | player1=XV | player2=XVI | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=I | player1=A | player2=B | resultado_p1=? | resultado_p2=?]
[luta=II | player1=C | player2=D | resultado_p1=? | resultado_p2=?]
[luta=III | player1=E | player2=F | resultado_p1=? | resultado_p2=?]
[luta=IV | player1=G | player2=H | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=1 | player1=I | player2=II | resultado_p1=? | resultado_p2=?]
[luta=2 | player1=III | player2=IV | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=A | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?]
[/fase]""" % (name[0], name[1], name[2], name[3], name[4], name[5], name[6], name[7], name[8], name[9], name[10], name[11], name[12], name[13], name[14], name[15],
name[16], name[17], name[18], name[19], name[20], name[21], name[22], name[23], name[24], name[25], name[26], name[27], name[28], name[29], name[30],
name[31])
file.write(chaves)
else: #Se quantidade de inscritos for maior do que 32, imprima chave para 32 confrontos.
while (number_of_lines < 64):
name.append("ninguem")
number_of_lines += 1
chaves ="""[fase]
[luta=1 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=2 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=3 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=4 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=5 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=6 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=7 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=8 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=9 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=10 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=11 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=12 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=13 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=14 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=15 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=16 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=17 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=18 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=19 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=20 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=21 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=22 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=23 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=24 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=25 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=26 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=27 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=28 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=29 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=30 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=31 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[luta=32 | player1=%s | player2=%s | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=I | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?]
[luta=II | player1=3 | player2=4 | resultado_p1=? | resultado_p2=?]
[luta=III | player1=5 | player2=6 | resultado_p1=? | resultado_p2=?]
[luta=IV | player1=7 | player2=8 | resultado_p1=? | resultado_p2=?]
[luta=V | player1=9 | player2=10 | resultado_p1=? | resultado_p2=?]
[luta=VI | player1=11 | player2=12 | resultado_p1=? | resultado_p2=?]
[luta=VII | player1=13 | player2=14 | resultado_p1=? | resultado_p2=?]
[luta=VIII | player1=15 | player2=16 | resultado_p1=? | resultado_p2=?]
[luta=IX | player1=17 | player2=18 | resultado_p1=? | resultado_p2=?]
[luta=X | player1=19 | player2=20 | resultado_p1=? | resultado_p2=?]
[luta=XI | player1=21 | player2=22 | resultado_p1=? | resultado_p2=?]
[luta=XII | player1=23 | player2=24 | resultado_p1=? | resultado_p2=?]
[luta=XIII | player1=25 | player2=26 | resultado_p1=? | resultado_p2=?]
[luta=XIV | player1=27 | player2=28 | resultado_p1=? | resultado_p2=?]
[luta=XV | player1=29 | player2=30 | resultado_p1=? | resultado_p2=?]
[luta=XVI | player1=31 | player2=32 | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=A | player1=I | player2=II | resultado_p1=? | resultado_p2=?]
[luta=B | player1=III | player2=IV | resultado_p1=? | resultado_p2=?]
[luta=C | player1=V | player2=VI | resultado_p1=? | resultado_p2=?]
[luta=D | player1=VII | player2=VIII | resultado_p1=? | resultado_p2=?]
[luta=E | player1=IX | player2=X | resultado_p1=? | resultado_p2=?]
[luta=F | player1=XI | player2=XII | resultado_p1=? | resultado_p2=?]
[luta=G | player1=XIII | player2=XIV | resultado_p1=? | resultado_p2=?]
[luta=H | player1=XV | player2=XVI | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=I | player1=A | player2=B | resultado_p1=? | resultado_p2=?]
[luta=II | player1=C | player2=D | resultado_p1=? | resultado_p2=?]
[luta=III | player1=E | player2=F | resultado_p1=? | resultado_p2=?]
[luta=IV | player1=G | player2=H | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=1 | player1=I | player2=II | resultado_p1=? | resultado_p2=?]
[luta=2 | player1=III | player2=IV | resultado_p1=? | resultado_p2=?]
[/fase]
[fase]
[luta=A | player1=1 | player2=2 | resultado_p1=? | resultado_p2=?]
[/fase]""" % (name[0], name[1], name[2], name[3], name[4], name[5], name[6], name[7], name[8], name[9], name[10], name[11], name[12], name[13], name[14], name[15],
name[16], name[17], name[18], name[19], name[20], name[21], name[22], name[23], name[24], name[25], name[26], name[27], name[28], name[29], name[30],
name[31], name[32], name[33], name[34], name[35], name[36], name[37], name[38], name[39], name[40], name[41], name[42], name[43], name[44], name[45],
name[46], name[47], name[48], name[49], name[50], name[51], name[52], name[53], name[54], name[55], name[56], name[57], name[58], name[59], name[60],
name[61], name[62], name[63])
file.write(chaves)
file.close()
| 60.683616
| 164
| 0.627688
| 1,554
| 10,741
| 4.185328
| 0.1139
| 0.184348
| 0.335178
| 0.368696
| 0.84302
| 0.826107
| 0.816574
| 0.731242
| 0.726476
| 0.384225
| 0
| 0.088545
| 0.176706
| 10,741
| 176
| 165
| 61.028409
| 0.646952
| 0.059119
| 0
| 0.452941
| 0
| 0
| 0.791246
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 1
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
a5efe7cc6777357005860c4e136b5079c8e98320
| 23,403
|
py
|
Python
|
tesuract/tests/test_pceregression2.py
|
kennychowdhary/tesuract
|
70aee5128171b1ef7b3d71d2c833e8d4e47b21f5
|
[
"BSD-3-Clause"
] | 3
|
2021-12-25T17:24:47.000Z
|
2022-01-28T19:05:58.000Z
|
tesuract/tests/test_pceregression2.py
|
kennychowdhary/tesuract
|
70aee5128171b1ef7b3d71d2c833e8d4e47b21f5
|
[
"BSD-3-Clause"
] | null | null | null |
tesuract/tests/test_pceregression2.py
|
kennychowdhary/tesuract
|
70aee5128171b1ef7b3d71d2c833e8d4e47b21f5
|
[
"BSD-3-Clause"
] | 1
|
2021-12-25T17:24:59.000Z
|
2021-12-25T17:24:59.000Z
|
import tesuract
import unittest
import numpy as np
import warnings, pdb
import time as T
import pytest
from sklearn.metrics import mean_squared_error
from sklearn.datasets import make_friedman1
from sklearn.model_selection import train_test_split
from sklearn.model_selection import cross_val_score
from sklearn.model_selection import KFold
from sklearn.model_selection import GridSearchCV
from sklearn.metrics import make_scorer
from sklearn.model_selection import cross_val_score
from sklearn.decomposition import PCA
relpath = tesuract.__file__[:-11] # ignore the __init__.py specification
print(relpath)
def mse(a, b):
return mean_squared_error(a, b, squared=False)
@pytest.mark.regression
class TestPCERegression(unittest.TestCase):
def test_checking_predict_does_recompute_mindex(self):
# this test will ensure the model selector selector works
X, y = make_friedman1(n_samples=50, n_features=10, random_state=0)
p = tesuract.PCEReg(order=2)
p.fit(X, y)
p.predict(X)
Xnew = X[:, :-2]
p.fit(Xnew, y)
p.predict(Xnew)
print("# times computing mindex:", p._mindex_compute_count_)
assert (
p._mindex_compute_count_ == 2
), "mindex should be recomputed when X dim changes. "
def test_checking_predict_does_not_recompute_mindex(self):
# this is a test to count the number of times mindex is computed
X, y = make_friedman1(n_samples=50, n_features=10, random_state=0)
p = tesuract.PCEReg(order=2)
p.fit(X, y)
p.predict(X)
Xnew, ynew = X[10:], y[10:]
p.fit(Xnew, ynew)
p.predict(Xnew)
print("# times mindex is computed: ", p._mindex_compute_count_)
assert (
p._mindex_compute_count_ == 1
), "mindex should NOT be recomputed when X row size changes."
def test_k_fold_mindex_count(self):
# this is a test to count the number of times mindex is computed
X, y = make_friedman1(n_samples=50, n_features=10, random_state=0)
X = 2 * X - 1 # scale to [-1,1]
kf = KFold(n_splits=5)
p = tesuract.PCEReg()
for train_index, test_index in kf.split(X):
X_train, X_test = X[train_index], X[test_index]
y_train, y_test = y[train_index], y[test_index]
p.fit(X_train, y_train)
score = np.sum(1 - p.predict(X_test) ** 2 / y_test**2)
# print(score)
print("# times mindex is computed: ", p._mindex_compute_count_)
assert (
p._mindex_compute_count_ == 1
), "mindex should NOT be recomputed when X row size changes."
def test_k_fold_mindex_count(self):
# this is a test to count the number of times mindex is computed
X, y = make_friedman1(n_samples=50, n_features=10, random_state=0)
X = 2 * X - 1 # scale to [-1,1]
params = {"order": [1, 2, 3]}
estimator = tesuract.PCEReg(fit_type="LassoCV")
grid = GridSearchCV(estimator, params)
grid.fit(X, y)
# print(grid.cv_results_)
print("# times computed...", grid.best_estimator_._mindex_compute_count_)
assert (
grid.best_estimator_._mindex_compute_count_ == 1
), "Best estimator should only compute mindex once!"
def test_feature_importance_friedman_example(self):
# this is a test to count the number of times mindex is computed
X, y = make_friedman1(n_samples=100, n_features=10, random_state=0)
X = 2 * X - 1 # scale to [-1,1]
estimator = tesuract.PCEReg(order=4, fit_type="LassoCV")
estimator.fit(X, y)
fi = estimator.feature_importances_
print(fi > 0.05)
assert (
np.sum(fi > 0.05) == 5
), "friedman function should have 5 important features only."
def test_grid_search_cv_picks_right_order(self):
#
rn = np.random.RandomState(99)
X = 2 * rn.rand(50, 5) - 1
fi_index = 3
x = X[:, 3]
# y = (1./8)*(35.*x**4 - 30*x**4 + 3)
y = (1.0 / 2) * (5 * x**3 - 3 * x)
params = {"order": [1, 2, 3, 4]}
estimator = tesuract.PCEReg(fit_type="LassoCV")
start = T.time()
grid = GridSearchCV(estimator, params, cv=KFold(n_splits=5))
grid.fit(X, y)
end = T.time()
print("Total grid search time is {0:.2f} seconds.".format(end - start))
# print(grid.cv_results_)
print("\nbest parameters:", grid.best_params_)
fi = grid.best_estimator_.feature_importances_
# print("\nfeatures:", grid.best_estimator_.feature_importances_)
assert (
grid.best_params_["order"] == 3
), "Grid search should find the best order 4, but it is not. Something is wrong."
assert (
np.argmax(fi) == fi_index
), "Not finding the right feature importance index."
def test_grid_search_cv_picks_right_order_and_features(self):
#
rn = np.random.RandomState(99)
X = 2 * rn.rand(50, 5) - 1
fi_index = 1
x = X[:, fi_index]
y = (1.0 / 8) * (35.0 * x**4 - 30 * x**4 + 3)
# y = (1./2)*(5*x**3 - 3*x)
params = {"order": [1, 2, 3, 4]}
estimator = tesuract.PCEReg(fit_type="LassoCV")
start = T.time()
grid = GridSearchCV(estimator, params, cv=KFold(n_splits=5))
grid.fit(X, y)
end = T.time()
print("Total grid search time is {0:.2f} seconds.".format(end - start))
print(grid.cv_results_)
print("\nbest parameters:", grid.best_params_)
fi = grid.best_estimator_.feature_importances_
# print("\nfeatures:", fi)
assert (
grid.best_params_["order"] == 3
), "Grid search should find the best order 4, but it is not. Something is wrong."
assert (
np.argmax(fi) == fi_index
), "Not finding the right feature importance index."
# print("# times computed...", grid.best_estimator_._mindex_compute_count_)
from warnings import simplefilter
from sklearn.exceptions import ConvergenceWarning
simplefilter("ignore", category=ConvergenceWarning)
# regression test for multi output pca regressor
@pytest.mark.regression
class TestMRegressionWrapper(unittest.TestCase):
@classmethod
def setUpClass(self):
self.X = np.loadtxt(relpath + "/tests/data/rom_test_X.txt")
self.Y = np.loadtxt(relpath + "/tests/data/rom_test_Y.txt")
X, Y = self.X, self.Y
from sklearn.model_selection import KFold
self.kf = KFold(n_splits=2)
def test_simplified_model_fit_with_single_param_for_each_comp(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
target_transform = tesuract.preprocessing.target_pipeline_custom(
log=False,
scale=False,
pca=True,
n_components="auto",
whiten=True,
exp_var_cutoff=0.5,
)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel.fit(X, Y)
start = T.time()
cvscore = cross_val_score(regmodel, X, Y, cv=5, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
print("total time is ", T.time() - start)
n_components = len(regmodel.best_params_)
reg_custom_list = ["pce" for i in range(n_components)]
reg_param_list = regmodel.best_params_
target_transform = tesuract.preprocessing.target_pipeline_custom(
log=False, scale=False, pca=True, n_components=n_components, whiten=True
)
regmodel_opt = tesuract.MRegressionWrapperCV(
regressor=reg_custom_list,
reg_params=reg_param_list,
custom_params=True,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
start = T.time()
cvscore = cross_val_score(regmodel_opt, X, Y, cv=5, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
print("total time is ", T.time() - start)
def test_simplified_model_fit_with_uninstantiated_PCA_target_transform(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
# target_transform = tesuract.preprocessing.target_pipeline_custom(log=False,scale=False,pca=True,n_components='auto',whiten=True,cutoff=.5)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=PCA,
target_transform_params={"n_components": 4},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel._fit_target_transform(Y)
def test_target_transform_has_certain_attributes_without_target_instantiation(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
# FactorAnalysis which has no inverse transform
from sklearn.decomposition import FactorAnalysis
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=FactorAnalysis,
target_transform_params={"n_components": 8},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
with self.assertRaises(Exception):
regmodel._fit_target_transform(Y)
def test_target_transform_has_certain_attributes_w_target_instantiation(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
# FactorAnalysis which has no inverse transform
from sklearn.decomposition import FactorAnalysis
FA = FactorAnalysis(n_components=4)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=FA,
target_transform_params=None,
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
with self.assertRaises(Exception):
regmodel._fit_target_transform(Y)
def test_simplified_model_fit_with_instantiated_PCA_target_transform(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
# target_transform = tesuract.preprocessing.target_pipeline_custom(log=False,scale=False,pca=True,n_components='auto',whiten=True,cutoff=.5)
target_transform = PCA(n_components=2)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel.fit(X, Y)
start = T.time()
cvscore = cross_val_score(regmodel, X, Y, cv=5, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
print("total time is ", T.time() - start)
n_components = len(regmodel.best_params_)
reg_custom_list = ["pce" for i in range(n_components)]
reg_param_list = regmodel.best_params_
target_transform = tesuract.preprocessing.target_pipeline_custom(
log=False, scale=False, pca=True, n_components=n_components, whiten=True
)
regmodel_opt = tesuract.MRegressionWrapperCV(
regressor=reg_custom_list,
reg_params=reg_param_list,
custom_params=True,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
start = T.time()
cvscore = cross_val_score(regmodel_opt, X, Y, cv=5, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
print("total time is ", T.time() - start)
def test_multi_target_init_with_custom_param_list(self):
# uses the best params as the new set of param grid space
# not efficient but can be faster than original space
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
target_transform = tesuract.preprocessing.target_pipeline_custom(
log=False,
scale=False,
pca=True,
n_components="auto",
whiten=True,
exp_var_cutoff=0.5,
)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel.fit(X, Y)
start = T.time()
cvscore = cross_val_score(regmodel, X, Y, cv=5, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
print("total time is ", T.time() - start)
new_params = regmodel.best_params_
new_regressors = ["pce" for i in range(len(new_params))]
regmodel_opt = tesuract.MRegressionWrapperCV(
regressor=new_regressors,
reg_params=new_params,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
start = T.time()
cvscore = cross_val_score(regmodel_opt, X, Y, cv=5, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
print("total time is ", T.time() - start)
def test_multi_target_init_with_custom_param_list2(self):
# uses the best params as the new set of param grid space
# not efficient but can be faster than original space
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = "pce" # will be a list automaticall if string
param_list = pce_grid
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
target_transform = tesuract.preprocessing.PCATargetTransform(
n_components="auto",
whiten=True,
exp_var_cutoff=0.5,
)
print(target_transform.fit_transform(Y).shape)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
print("custom params:", regmodel.custom_params) # should be
regmodel.fit(X, Y)
def test_rom_w_single_regressor_as_list(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
target_transform = tesuract.preprocessing.target_pipeline_custom(
log=False, scale=False, pca=True, n_components=4, whiten=True
)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel.fit(X, Y)
cvscore = cross_val_score(regmodel, X, Y, cv=2, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
def test_rom_w_single_regressor_as_list_wo_pca(self):
X, Y = self.X, self.Y[:, ::75] # shorten output
pce_grid = [
{
"order": list(range(2)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = ["pce"]
param_list = [pce_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
# target_transform = tesuract.preprocessing.target_pipeline_custom(log=False,scale=False,pca=False,n_components=4,whiten=True)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=None,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel.fit(X, Y)
cvscore = cross_val_score(regmodel, X, Y, cv=2, scoring="r2", n_jobs=1)
print("cv r2 score: {0}%".format(-100 * np.round(cvscore.mean(), 4)))
# get feature importances and weighted versions
fi = regmodel.feature_importances_
ws = regmodel.sobol_weighted_
assert ws.ndim == 1, "weighted sobol must be a single vector"
# get explained variance ratio
evr = regmodel.explained_variance_ratio_
assert np.amin(evr) == np.amax(
evr
), "The explained variance ratio when target transform = None should be equal."
# print("explained var ratio when target transform is None: ", evr)
def test_rom_w_single_regressor_as_str(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
regressors = "pce"
param_list = pce_grid
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
target_transform = tesuract.preprocessing.target_pipeline_custom(
log=False,
scale=False,
pca=True,
n_components=3,
whiten=True,
exp_var_cutoff=1 - 0.25,
)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel.fit(X, Y)
# test feature importance and explained var ratio for pca
fi = regmodel.feature_importances_
ws = regmodel.sobol_weighted_
assert ws.ndim == 1, "weighted sobol must be a single vector"
# get explained variance ratio
evr = regmodel.explained_variance_ratio_
print("explained variance ratio when using pca:", evr)
def test_rom_w_multiple_regressors(self):
X, Y = self.X, self.Y
pce_grid = [
{
"order": list(range(1, 3)),
"mindex_type": ["total_order"],
"fit_type": ["LassoCV"],
}
]
# random forest fit
rf_grid = {
"n_estimators": [50, 100],
"max_features": ["auto"],
"max_depth": [5, 10],
}
regressors = ["pce", "rf"]
param_list = [pce_grid, rf_grid]
def my_scorer(ytrue, ypred):
mse = np.mean((ytrue - ypred) ** 2) / np.mean(ytrue**2)
return -mse
custom_scorer = make_scorer(my_scorer, greater_is_better=True)
target_transform = tesuract.preprocessing.target_pipeline_custom(
log=False,
scale=False,
pca=True,
n_components="auto",
whiten=True,
exp_var_cutoff=1 - 0.25,
)
regmodel = tesuract.MRegressionWrapperCV(
regressor=regressors,
reg_params=param_list,
target_transform=target_transform,
target_transform_params={},
n_jobs=1,
scorer=custom_scorer,
verbose=0,
)
regmodel.fit(X, Y)
| 36.913249
| 148
| 0.579797
| 2,808
| 23,403
| 4.598291
| 0.097578
| 0.069703
| 0.018742
| 0.046468
| 0.830932
| 0.80158
| 0.784696
| 0.776332
| 0.764715
| 0.753098
| 0
| 0.019809
| 0.311883
| 23,403
| 633
| 149
| 36.971564
| 0.78198
| 0.074435
| 0
| 0.705128
| 0
| 0
| 0.086166
| 0.002405
| 0
| 0
| 0
| 0
| 0.025641
| 1
| 0.056777
| false
| 0
| 0.053114
| 0.001832
| 0.135531
| 0.051282
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
93a9178b203ac4ad55a9cd1908ae6892935f1e6b
| 104
|
py
|
Python
|
lib/config/__init__.py
|
yaopengUSTC/mbit-skin-cancer
|
a82a87b2abebaf724dbe2a7b7e833c434c1b56a0
|
[
"MIT"
] | 3
|
2022-01-23T05:27:43.000Z
|
2022-03-08T07:29:25.000Z
|
lib/config/__init__.py
|
yaopengUSTC/mbit-skin-cancer
|
a82a87b2abebaf724dbe2a7b7e833c434c1b56a0
|
[
"MIT"
] | null | null | null |
lib/config/__init__.py
|
yaopengUSTC/mbit-skin-cancer
|
a82a87b2abebaf724dbe2a7b7e833c434c1b56a0
|
[
"MIT"
] | null | null | null |
from .default import _C as cfg
from .default import update_config
from .default import update_cfg_name
| 34.666667
| 36
| 0.826923
| 17
| 104
| 4.823529
| 0.529412
| 0.402439
| 0.621951
| 0.560976
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.144231
| 104
| 3
| 36
| 34.666667
| 0.921348
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 8
|
93e8dcbc41fec28a01b684a6f1241588421acf2e
| 1,061
|
py
|
Python
|
validation/explore_precision.py
|
dylancromer/OffsetNFW
|
4a93ca2f2d77f69bb1934aed2dbc4d5d3fe129c0
|
[
"BSD-3-Clause"
] | 1
|
2019-03-25T19:22:35.000Z
|
2019-03-25T19:22:35.000Z
|
validation/explore_precision.py
|
dylancromer/OffsetNFW
|
4a93ca2f2d77f69bb1934aed2dbc4d5d3fe129c0
|
[
"BSD-3-Clause"
] | 1
|
2016-02-22T21:55:33.000Z
|
2016-03-02T23:52:39.000Z
|
validation/explore_precision.py
|
dylancromer/OffsetNFW
|
4a93ca2f2d77f69bb1934aed2dbc4d5d3fe129c0
|
[
"BSD-3-Clause"
] | 1
|
2019-03-27T19:17:09.000Z
|
2019-03-27T19:17:09.000Z
|
def main():
# Make a 10^14 c=4 halo, check radial binning
# Make a 10^14 c=4 halo, check miscentering binning
# Make a 10^14 c=2 halo, check radial binning
# Make a 10^14 c=2 halo, check miscentering binning
# Make a 10^14 c=6 halo, check radial binning
# Make a 10^14 c=6 halo, check miscentering binning
# Make a 10^13 c=4 halo, check radial binning
# Make a 10^13 c=4 halo, check miscentering binning
# Make a 10^13 c=2 halo, check radial binning
# Make a 10^13 c=2 halo, check miscentering binning
# Make a 10^13 c=6 halo, check radial binning
# Make a 10^13 c=6 halo, check miscentering binning
# Make a 10^15 c=4 halo, check radial binning
# Make a 10^15 c=4 halo, check miscentering binning
# Make a 10^15 c=2 halo, check radial binning
# Make a 10^15 c=2 halo, check miscentering binning
# Make a 10^15 c=6 halo, check radial binning
# Make a 10^15 c=6 halo, check miscentering binning
| 48.227273
| 68
| 0.617342
| 182
| 1,061
| 3.598901
| 0.093407
| 0.137405
| 0.192366
| 0.363359
| 0.989313
| 0.989313
| 0.960305
| 0.960305
| 0.946565
| 0
| 0
| 0.123288
| 0.31197
| 1,061
| 21
| 69
| 50.52381
| 0.773973
| 0.852969
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | null | 0
| 0
| null | null | 0
| 0
| 0
| 0
| null | 0
| 1
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 9
|
93fe977952994bc3a5c60e5d36a476c1d8dfadda
| 3,913
|
py
|
Python
|
test users/common_testing_tools.py
|
Tapawingo/FreeTakServer
|
30259fa0fb5a69bbf6606f06d9cd40a63d2aa4fd
|
[
"MIT"
] | 27
|
2020-05-01T01:45:59.000Z
|
2020-07-03T00:17:13.000Z
|
test users/common_testing_tools.py
|
Tapawingo/FreeTakServer
|
30259fa0fb5a69bbf6606f06d9cd40a63d2aa4fd
|
[
"MIT"
] | 34
|
2020-04-26T11:25:52.000Z
|
2020-07-03T21:06:34.000Z
|
test users/common_testing_tools.py
|
Tapawingo/FreeTakServer
|
30259fa0fb5a69bbf6606f06d9cd40a63d2aa4fd
|
[
"MIT"
] | 15
|
2020-05-01T01:46:07.000Z
|
2020-07-03T12:14:04.000Z
|
import socket
import time
import asyncio
import test_data
import ssl
class TCPClient:
def __init__(self, ip, port):
self.clientObj = test_data.TestCoTClient()
self.sock = self.establish_socket_connection(ip=ip, port=port)
def establish_socket_connection(self, ip, port):
sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
sock.connect((ip, port))
sock.send(self.clientObj.generate_cot())
return sock
def send_specific_data(self, cot: bytes):
self.sock.send(cot)
def service_connection(self):
self.receive_data_until_empty()
self.send_connection_data()
def receive_data_until_empty(self):
self.sock.settimeout(0.1)
while True:
try:
self.sock.recv(100000)
except:
break
def receive_specific_data(self, buffer: int):
return self.sock.recv(buffer)
def send_connection_data(self):
self.sock.send(self.clientObj.generate_cot())
self.sock.send(test_data.TestCoTClient().generate_object_cot())
def connection_is_alive(self):
try:
self.sock.send(test_data.TestCoTClient().generate_object_cot())
if self.sock.recv(5) != b'':
return True
else:
return False
except:
return False
class TCPClientAsync:
def __init__(self, ip, port):
self.clientObj = test_data.TestCoTClient()
self.sock = self.establish_socket_connection(ip=ip, port=port)
def establish_socket_connection(self, ip, port):
sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
sock.connect((ip, port))
sock.send(self.clientObj.generate_cot())
return sock
async def service_connection(self):
asyncio.create_task(self.receive_data_until_empty())
asyncio.create_task(self.send_connection_data())
async def receive_data_until_empty(self):
self.sock.settimeout(0.1)
while True:
try:
self.sock.recv(100000)
except:
break
async def send_connection_data(self):
self.sock.send(self.clientObj.generate_cot())
self.sock.send(test_data.TestCoTClient().generate_object_cot())
def connection_is_alive(self):
try:
self.sock.send(test_data.TestCoTClient().generate_object_cot())
if self.sock.recv(5) != b'':
return True
else:
return False
except:
return False
class SSLClientAsync:
def __init__(self, cert_file, key_file, ip, port):
self.clientObj = test_data.TestCoTClient()
self.sock = self.establish_socket_connection(cert_file=cert_file, key_file=key_file, ip=ip, port=port)
def establish_socket_connection(self, cert_file, key_file, ip, port):
sock = socket.socket(socket.AF_INET, socket.SOCK_STREAM)
ssl_sock = ssl.wrap_socket(sock, ssl_version=ssl.PROTOCOL_TLSv1_2, certfile=cert_file, keyfile=key_file)
ssl_sock.connect((ip, port))
ssl_sock.send(self.clientObj.generate_cot())
return ssl_sock
async def service_connection(self):
self.send_connection_data()
async def receive_data_until_empty(self):
self.sock.settimeout(0.1)
while True:
try:
self.sock.recv(100000)
except:
break
def send_connection_data(self):
self.sock.send(self.clientObj.generate_cot())
self.sock.send(test_data.TestCoTClient().generate_object_cot())
def connection_is_alive(self):
try:
self.sock.send(test_data.TestCoTClient().generate_object_cot())
if self.sock.recv(5) != b'':
return True
else:
return False
except:
return False
| 32.07377
| 112
| 0.628163
| 476
| 3,913
| 4.915966
| 0.142857
| 0.078632
| 0.051282
| 0.053846
| 0.827778
| 0.794444
| 0.767949
| 0.737179
| 0.737179
| 0.718376
| 0
| 0.010211
| 0.274214
| 3,913
| 122
| 113
| 32.07377
| 0.813732
| 0
| 0
| 0.754902
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.147059
| false
| 0
| 0.04902
| 0.009804
| 0.352941
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
9e0f92273610f2e1461d03402ffd073dc4a04227
| 1,215
|
py
|
Python
|
box/render.py
|
vqv/R-Box
|
a63118fb4470450fd09a0ba6f2248ce0a4c9dccb
|
[
"MIT"
] | 174
|
2015-01-07T19:28:03.000Z
|
2021-09-19T06:29:40.000Z
|
box/render.py
|
vqv/R-Box
|
a63118fb4470450fd09a0ba6f2248ce0a4c9dccb
|
[
"MIT"
] | 113
|
2015-01-16T14:18:49.000Z
|
2020-01-07T15:00:59.000Z
|
box/render.py
|
vqv/R-Box
|
a63118fb4470450fd09a0ba6f2248ce0a4c9dccb
|
[
"MIT"
] | 29
|
2015-01-19T05:45:52.000Z
|
2021-05-30T04:07:40.000Z
|
import sublime_plugin
class RBoxRenderRmarkdownCommand(sublime_plugin.TextCommand):
def is_enabled(self):
return self.view.settings().get("syntax").endswith("R Markdown.sublime-syntax")
def run(self, edit):
cmd = "rmarkdown::render(\"$file\", encoding = \"UTF-8\")"
self.view.run_command("send_code", {"cmd": cmd})
class RBoxSweaveRnwCommand(sublime_plugin.TextCommand):
def is_enabled(self):
return self.view.settings().get("syntax").endswith("R Sweave.sublime-syntax")
def run(self, edit):
cmd = ("""setwd(\"$file_path\")\n"""
"""Sweave(\"$file\")\n"""
"""tools::texi2dvi(\"$file_base_name.tex\", pdf = TRUE)""")
self.view.run_command("send_code", {"cmd": cmd})
class RBoxKnitRnwCommand(sublime_plugin.TextCommand):
def is_enabled(self):
return self.view.settings().get("syntax").endswith("R Sweave.sublime-syntax")
def run(self, edit):
cmd = ("""setwd(\"$file_path\")\n"""
"""knitr::knit(\"$file\", output=\"$file_base_name.tex\")\n"""
"""tools::texi2dvi(\"$file_base_name.tex\", pdf = TRUE)")""")
self.view.run_command("send_code", {"cmd": cmd})
| 36.818182
| 87
| 0.609053
| 144
| 1,215
| 4.993056
| 0.319444
| 0.066759
| 0.100139
| 0.112656
| 0.76217
| 0.76217
| 0.76217
| 0.720445
| 0.720445
| 0.662031
| 0
| 0.003043
| 0.188477
| 1,215
| 32
| 88
| 37.96875
| 0.726166
| 0
| 0
| 0.619048
| 0
| 0
| 0.20297
| 0.109901
| 0
| 0
| 0
| 0
| 0
| 1
| 0.285714
| false
| 0
| 0.047619
| 0.142857
| 0.619048
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 1
| 1
| 0
|
0
| 8
|
9e1b0718077e4d1c3ba6ce0b977bc69ae62f1cb5
| 145
|
py
|
Python
|
tests/conftest.py
|
cwstryker/skidl
|
b5854ecd71e9da70d5391ad67ab30a8985a61ee8
|
[
"MIT"
] | 133
|
2015-08-13T17:33:57.000Z
|
2021-05-11T04:28:07.000Z
|
tests/conftest.py
|
cwstryker/skidl
|
b5854ecd71e9da70d5391ad67ab30a8985a61ee8
|
[
"MIT"
] | 53
|
2015-08-17T18:53:50.000Z
|
2020-11-20T13:07:12.000Z
|
tests/conftest.py
|
cwstryker/skidl
|
b5854ecd71e9da70d5391ad67ab30a8985a61ee8
|
[
"MIT"
] | 41
|
2015-08-18T00:48:01.000Z
|
2021-01-05T00:34:55.000Z
|
import os
import os.path
import pdb
import sys
sys.path.append(os.path.join(os.getcwd(), "."))
sys.path.append(os.path.join(os.getcwd(), ".."))
| 18.125
| 48
| 0.689655
| 25
| 145
| 4
| 0.32
| 0.18
| 0.26
| 0.3
| 0.62
| 0.62
| 0.62
| 0.62
| 0
| 0
| 0
| 0
| 0.089655
| 145
| 7
| 49
| 20.714286
| 0.757576
| 0
| 0
| 0
| 0
| 0
| 0.02069
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0.666667
| 0
| 0.666667
| 0
| 1
| 0
| 0
| null | 0
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
f55646d0a45531f4886fe532b0ac3aa4708ee245
| 12,427
|
py
|
Python
|
src/aws_lambda/data_analysis_imdb_query.py
|
joshch1630/movie_data_platform
|
247a17b69703076f3b422d1bb811a409c0fa1e10
|
[
"MIT"
] | null | null | null |
src/aws_lambda/data_analysis_imdb_query.py
|
joshch1630/movie_data_platform
|
247a17b69703076f3b422d1bb811a409c0fa1e10
|
[
"MIT"
] | null | null | null |
src/aws_lambda/data_analysis_imdb_query.py
|
joshch1630/movie_data_platform
|
247a17b69703076f3b422d1bb811a409c0fa1e10
|
[
"MIT"
] | null | null | null |
IMDB_DATA_TYPE = "imdb_type"
IMDB_QUERY_DICT_LIST = []
###########################
########### Year ##########
###########################
# by year
GET_BY_YEAR_IMDB_QUERY = """
SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
GROUP BY startyear
ORDER BY startyear;
"""
BY_YEAR_IMDB_DICT = {
"data_title": "imdb_by_year",
"data_type": IMDB_DATA_TYPE,
"query": GET_BY_YEAR_IMDB_QUERY,
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(BY_YEAR_IMDB_DICT)
# is adult by year
GET_IS_ADULT_BY_YEAR_IMDB_QUERY = """
SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
WHERE isadult = true
GROUP BY startyear
ORDER BY startyear;
"""
IS_ADULT_BY_YEAR_IMDB_DICT = {
"data_title": "imdb_is_adult_by_year",
"data_type": IMDB_DATA_TYPE,
"query": GET_IS_ADULT_BY_YEAR_IMDB_QUERY,
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(IS_ADULT_BY_YEAR_IMDB_DICT)
# rating by year
for i in range(0, 10):
GET_RATING_BY_YEAR_IMDB_QUERY = """
SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
WHERE averagerating >= {} AND averagerating < {}
GROUP BY startyear
ORDER BY startyear;
"""
RATING_BY_YEAR_IMDB_DICT = {
"data_title": "imdb_rating_{}_to_{}_by_year".format(i, i+1),
"data_type": IMDB_DATA_TYPE,
"query": GET_RATING_BY_YEAR_IMDB_QUERY.format(i, i+1),
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(RATING_BY_YEAR_IMDB_DICT)
# genres by year
GENRES_LIST = ["Action", "Adventure", "Animation", "Biography", "Comedy", "Crime", "Documentary", "Drama", "Family", "Fantasy",
"Film-Noir", "History", "Horror", "Music", "Musical", "Mystery", "Romance", "Sci-Fi", "Sport", "Thriller", "War", "Western"]
for genres in GENRES_LIST:
GET_GENRES_BY_YEAR_IMDB_QUERY = """
SELECT startyear AS year, COUNT(1) AS movie_count, ROUND(AVG(averagerating), 2) AS avg_rating, SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
WHERE genres_1 = '{}' OR genres_2 = '{}' OR genres_3 = '{}'
GROUP BY startyear
ORDER BY startyear;
"""
GENRES_BY_YEAR_IMDB_DICT = {
"data_title": "imdb_genres_{}_by_year".format(genres),
"data_type": IMDB_DATA_TYPE,
"query": GET_GENRES_BY_YEAR_IMDB_QUERY.format(genres, genres, genres),
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(GENRES_BY_YEAR_IMDB_DICT)
###########################
########## Rating #########
###########################
# by rating
GET_BY_RATING_IMDB_QUERY = """
SELECT
CASE
WHEN averagerating >= 9 AND averagerating <= 10 THEN '9-10'
WHEN averagerating >= 8 AND averagerating < 9 THEN '8-9'
WHEN averagerating >= 7 AND averagerating < 8 THEN '7-8'
WHEN averagerating >= 6 AND averagerating < 7 THEN '6-7'
WHEN averagerating >= 5 AND averagerating < 6 THEN '5-6'
WHEN averagerating >= 4 AND averagerating < 5 THEN '4-5'
WHEN averagerating >= 3 AND averagerating < 4 THEN '3-4'
WHEN averagerating >= 2 AND averagerating < 3 THEN '2-3'
WHEN averagerating >= 1 AND averagerating < 2 THEN '1-2'
WHEN averagerating >= 0 AND averagerating < 1 THEN '0-1'
ELSE 'NA'
END AS rating,
COUNT(1) AS movie_count,
SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
GROUP BY 1
ORDER BY 1;
"""
BY_RATING_IMDB_DICT = {
"data_title": "imdb_by_rating",
"data_type": IMDB_DATA_TYPE,
"query": GET_BY_RATING_IMDB_QUERY,
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(BY_RATING_IMDB_DICT)
# is adult by rating
GET_IS_ADULT_BY_RATING_IMDB_QUERY = """
SELECT
CASE
WHEN averagerating >= 9 AND averagerating <= 10 THEN '9-10'
WHEN averagerating >= 8 AND averagerating < 9 THEN '8-9'
WHEN averagerating >= 7 AND averagerating < 8 THEN '7-8'
WHEN averagerating >= 6 AND averagerating < 7 THEN '6-7'
WHEN averagerating >= 5 AND averagerating < 6 THEN '5-6'
WHEN averagerating >= 4 AND averagerating < 5 THEN '4-5'
WHEN averagerating >= 3 AND averagerating < 4 THEN '3-4'
WHEN averagerating >= 2 AND averagerating < 3 THEN '2-3'
WHEN averagerating >= 1 AND averagerating < 2 THEN '1-2'
WHEN averagerating >= 0 AND averagerating < 1 THEN '0-1'
ELSE 'NA'
END AS rating,
COUNT(1) AS movie_count,
SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
WHERE isadult = true
GROUP BY 1
ORDER BY 1;
"""
IS_ADULT_BY_RATING_IMDB_DICT = {
"data_title": "imdb_is_adult_by_rating",
"data_type": IMDB_DATA_TYPE,
"query": GET_IS_ADULT_BY_RATING_IMDB_QUERY,
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(IS_ADULT_BY_RATING_IMDB_DICT)
# genres by rating
GENRES_LIST = ["Action", "Adventure", "Animation", "Biography", "Comedy", "Crime", "Documentary", "Drama", "Family", "Fantasy",
"Film-Noir", "History", "Horror", "Music", "Musical", "Mystery", "Romance", "Sci-Fi", "Sport", "Thriller", "War", "Western"]
for genres in GENRES_LIST:
GET_GENRES_BY_RATING_IMDB_QUERY = """
SELECT
CASE
WHEN averagerating >= 9 AND averagerating <= 10 THEN '9-10'
WHEN averagerating >= 8 AND averagerating < 9 THEN '8-9'
WHEN averagerating >= 7 AND averagerating < 8 THEN '7-8'
WHEN averagerating >= 6 AND averagerating < 7 THEN '6-7'
WHEN averagerating >= 5 AND averagerating < 6 THEN '5-6'
WHEN averagerating >= 4 AND averagerating < 5 THEN '4-5'
WHEN averagerating >= 3 AND averagerating < 4 THEN '3-4'
WHEN averagerating >= 2 AND averagerating < 3 THEN '2-3'
WHEN averagerating >= 1 AND averagerating < 2 THEN '1-2'
WHEN averagerating >= 0 AND averagerating < 1 THEN '0-1'
ELSE 'NA'
END AS rating,
COUNT(1) AS movie_count,
SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
WHERE genres_1 = '{}' OR genres_2 = '{}' OR genres_3 = '{}'
GROUP BY 1
ORDER BY 1;
"""
GENRES_BY_RATING_IMDB_DICT = {
"data_title": "imdb_genres_{}_by_rating".format(genres),
"data_type": IMDB_DATA_TYPE,
"query": GET_GENRES_BY_RATING_IMDB_QUERY.format(genres, genres, genres),
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(GENRES_BY_RATING_IMDB_DICT)
###########################
########## Genres #########
###########################
# by genres
GET_BY_GENRES_IMDB_QUERY = """
SELECT
CASE
WHEN genres_1 = 'Action' OR genres_2 = 'Action' OR genres_3 = 'Action' THEN 'Action'
WHEN genres_1 = 'Adventure' OR genres_2 = 'Adventure' OR genres_3 = 'Adventure' THEN 'Adventure'
WHEN genres_1 = 'Animation' OR genres_2 = 'Animation' OR genres_3 = 'Animation' THEN 'Animation'
WHEN genres_1 = 'Biography' OR genres_2 = 'Biography' OR genres_3 = 'Biography' THEN 'Biography'
WHEN genres_1 = 'Comedy' OR genres_2 = 'Comedy' OR genres_3 = 'Comedy' THEN 'Comedy'
WHEN genres_1 = 'Crime' OR genres_2 = 'Crime' OR genres_3 = 'Crime' THEN 'Crime'
WHEN genres_1 = 'Documentary' OR genres_2 = 'Documentary' OR genres_3 = 'Documentary' THEN 'Documentary'
WHEN genres_1 = 'Drama' OR genres_2 = 'Drama' OR genres_3 = 'Drama' THEN 'Drama'
WHEN genres_1 = 'Family' OR genres_2 = 'Family' OR genres_3 = 'Family' THEN 'Family'
WHEN genres_1 = 'Fantasy' OR genres_2 = 'Fantasy' OR genres_3 = 'Fantasy' THEN 'Fantasy'
WHEN genres_1 = 'Film-Noir' OR genres_2 = 'Film-Noir' OR genres_3 = 'Film-Noir' THEN 'Film-Noir'
WHEN genres_1 = 'History' OR genres_2 = 'History' OR genres_3 = 'History' THEN 'History'
WHEN genres_1 = 'Horror' OR genres_2 = 'Horror' OR genres_3 = 'Horror' THEN 'Horror'
WHEN genres_1 = 'Music' OR genres_2 = 'Music' OR genres_3 = 'Music' THEN 'Music'
WHEN genres_1 = 'Musical' OR genres_2 = 'Musical' OR genres_3 = 'Musical' THEN 'Musical'
WHEN genres_1 = 'Mystery' OR genres_2 = 'Mystery' OR genres_3 = 'Mystery' THEN 'Mystery'
WHEN genres_1 = 'Romance' OR genres_2 = 'Romance' OR genres_3 = 'Romance' THEN 'Romance'
WHEN genres_1 = 'Sci-Fi' OR genres_2 = 'Sci-Fi' OR genres_3 = 'Sci-Fi' THEN 'Sci-Fi'
WHEN genres_1 = 'Sport' OR genres_2 = 'Sport' OR genres_3 = 'Sport' THEN 'Sport'
WHEN genres_1 = 'Thriller' OR genres_2 = 'Thriller' OR genres_3 = 'Thriller' THEN 'Thriller'
WHEN genres_1 = 'War' OR genres_2 = 'War' OR genres_3 = 'War' THEN 'War'
WHEN genres_1 = 'Western' OR genres_2 = 'Western' OR genres_3 = 'Western' THEN 'Western'
ELSE 'NA'
END AS genre,
COUNT(1) AS movie_count,
ROUND(AVG(averagerating), 2) AS avg_rating,
SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
GROUP BY 1
ORDER BY 1;
"""
BY_GENRES_IMDB_DICT = {
"data_title": "imdb_by_genres",
"data_type": IMDB_DATA_TYPE,
"query": GET_BY_GENRES_IMDB_QUERY,
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(BY_GENRES_IMDB_DICT)
# is adult by genres
GET_IS_ADULT_BY_GENRES_IMDB_QUERY = """
SELECT
CASE
WHEN genres_1 = 'Action' OR genres_2 = 'Action' OR genres_3 = 'Action' THEN 'Action'
WHEN genres_1 = 'Adventure' OR genres_2 = 'Adventure' OR genres_3 = 'Adventure' THEN 'Adventure'
WHEN genres_1 = 'Animation' OR genres_2 = 'Animation' OR genres_3 = 'Animation' THEN 'Animation'
WHEN genres_1 = 'Biography' OR genres_2 = 'Biography' OR genres_3 = 'Biography' THEN 'Biography'
WHEN genres_1 = 'Comedy' OR genres_2 = 'Comedy' OR genres_3 = 'Comedy' THEN 'Comedy'
WHEN genres_1 = 'Crime' OR genres_2 = 'Crime' OR genres_3 = 'Crime' THEN 'Crime'
WHEN genres_1 = 'Documentary' OR genres_2 = 'Documentary' OR genres_3 = 'Documentary' THEN 'Documentary'
WHEN genres_1 = 'Drama' OR genres_2 = 'Drama' OR genres_3 = 'Drama' THEN 'Drama'
WHEN genres_1 = 'Family' OR genres_2 = 'Family' OR genres_3 = 'Family' THEN 'Family'
WHEN genres_1 = 'Fantasy' OR genres_2 = 'Fantasy' OR genres_3 = 'Fantasy' THEN 'Fantasy'
WHEN genres_1 = 'Film-Noir' OR genres_2 = 'Film-Noir' OR genres_3 = 'Film-Noir' THEN 'Film-Noir'
WHEN genres_1 = 'History' OR genres_2 = 'History' OR genres_3 = 'History' THEN 'History'
WHEN genres_1 = 'Horror' OR genres_2 = 'Horror' OR genres_3 = 'Horror' THEN 'Horror'
WHEN genres_1 = 'Music' OR genres_2 = 'Music' OR genres_3 = 'Music' THEN 'Music'
WHEN genres_1 = 'Musical' OR genres_2 = 'Musical' OR genres_3 = 'Musical' THEN 'Musical'
WHEN genres_1 = 'Mystery' OR genres_2 = 'Mystery' OR genres_3 = 'Mystery' THEN 'Mystery'
WHEN genres_1 = 'Romance' OR genres_2 = 'Romance' OR genres_3 = 'Romance' THEN 'Romance'
WHEN genres_1 = 'Sci-Fi' OR genres_2 = 'Sci-Fi' OR genres_3 = 'Sci-Fi' THEN 'Sci-Fi'
WHEN genres_1 = 'Sport' OR genres_2 = 'Sport' OR genres_3 = 'Sport' THEN 'Sport'
WHEN genres_1 = 'Thriller' OR genres_2 = 'Thriller' OR genres_3 = 'Thriller' THEN 'Thriller'
WHEN genres_1 = 'War' OR genres_2 = 'War' OR genres_3 = 'War' THEN 'War'
WHEN genres_1 = 'Western' OR genres_2 = 'Western' OR genres_3 = 'Western' THEN 'Western'
ELSE 'NA'
END AS genre,
COUNT(1) AS movie_count,
ROUND(AVG(averagerating), 2) AS avg_rating,
SUM(numvotes) AS vote_count
FROM "movie_database_platform"."imdb_title_basics_ratings"
WHERE isadult = true
GROUP BY 1
ORDER BY 1;
"""
IS_ADULT_BY_GENRES_IMDB_DICT = {
"data_title": "imdb_is_adult_by_genres",
"data_type": IMDB_DATA_TYPE,
"query": GET_IS_ADULT_BY_GENRES_IMDB_QUERY,
"query_execution_id": "",
"is_completed": False,
"result_data": {}
}
IMDB_QUERY_DICT_LIST.append(IS_ADULT_BY_GENRES_IMDB_DICT)
| 44.067376
| 139
| 0.672085
| 1,793
| 12,427
| 4.373675
| 0.050753
| 0.093854
| 0.052793
| 0.021678
| 0.975516
| 0.962255
| 0.928972
| 0.896327
| 0.885616
| 0.869294
| 0
| 0.029333
| 0.19345
| 12,427
| 282
| 140
| 44.067376
| 0.753068
| 0.012151
| 0
| 0.768924
| 0
| 0.191235
| 0.772124
| 0.063756
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
1949af54c77b104f66a842c8a519bea3177c2b4e
| 35
|
py
|
Python
|
PythonExercicios/ex001.py
|
lordvinick/Python
|
c03fd08d4c204104bf0196b0bd129427fd2067ae
|
[
"MIT"
] | null | null | null |
PythonExercicios/ex001.py
|
lordvinick/Python
|
c03fd08d4c204104bf0196b0bd129427fd2067ae
|
[
"MIT"
] | null | null | null |
PythonExercicios/ex001.py
|
lordvinick/Python
|
c03fd08d4c204104bf0196b0bd129427fd2067ae
|
[
"MIT"
] | null | null | null |
print("\033[32mOlá,mundo!\033[m")
| 11.666667
| 33
| 0.657143
| 6
| 35
| 3.833333
| 0.833333
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.242424
| 0.057143
| 35
| 2
| 34
| 17.5
| 0.454545
| 0
| 0
| 0
| 0
| 0
| 0.705882
| 0.705882
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 1
|
0
| 9
|
5ffdbb0290ca45b403f6793ef4a2afd061cb5219
| 89
|
py
|
Python
|
test/sourceRelated.py
|
hongyehu/NeuralRG
|
ff4eb18f7f9e083dac6f3da3995f3f69ecf381e8
|
[
"Apache-2.0"
] | 65
|
2018-03-15T20:39:35.000Z
|
2022-03-11T22:38:24.000Z
|
test/sourceRelated.py
|
arita37/NeuralRG
|
ff4eb18f7f9e083dac6f3da3995f3f69ecf381e8
|
[
"Apache-2.0"
] | null | null | null |
test/sourceRelated.py
|
arita37/NeuralRG
|
ff4eb18f7f9e083dac6f3da3995f3f69ecf381e8
|
[
"Apache-2.0"
] | 19
|
2018-06-07T16:19:57.000Z
|
2021-02-26T08:36:43.000Z
|
import numpy as np
from numpy.testing import assert_array_almost_equal,assert_array_equal
| 44.5
| 70
| 0.898876
| 15
| 89
| 5
| 0.666667
| 0.293333
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.078652
| 89
| 2
| 70
| 44.5
| 0.914634
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.5
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
274bbc3590a629d51c88b6554ffaa3021e5b5989
| 155
|
py
|
Python
|
loldib/getratings/models/NA/na_taliyah/__init__.py
|
koliupy/loldib
|
c9ab94deb07213cdc42b5a7c26467cdafaf81b7f
|
[
"Apache-2.0"
] | null | null | null |
loldib/getratings/models/NA/na_taliyah/__init__.py
|
koliupy/loldib
|
c9ab94deb07213cdc42b5a7c26467cdafaf81b7f
|
[
"Apache-2.0"
] | null | null | null |
loldib/getratings/models/NA/na_taliyah/__init__.py
|
koliupy/loldib
|
c9ab94deb07213cdc42b5a7c26467cdafaf81b7f
|
[
"Apache-2.0"
] | null | null | null |
from .na_taliyah_top import *
from .na_taliyah_jng import *
from .na_taliyah_mid import *
from .na_taliyah_bot import *
from .na_taliyah_sup import *
| 25.833333
| 30
| 0.774194
| 25
| 155
| 4.4
| 0.36
| 0.272727
| 0.590909
| 0.690909
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.16129
| 155
| 5
| 31
| 31
| 0.846154
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 8
|
2786004eb6bb3bfd808b2df383268b407faadbaf
| 398
|
py
|
Python
|
composer/algorithms/selective_backprop/__init__.py
|
murthyn/composer
|
2a04cf387dd8558556500f7ef2bc6d3d131043d5
|
[
"Apache-2.0"
] | null | null | null |
composer/algorithms/selective_backprop/__init__.py
|
murthyn/composer
|
2a04cf387dd8558556500f7ef2bc6d3d131043d5
|
[
"Apache-2.0"
] | null | null | null |
composer/algorithms/selective_backprop/__init__.py
|
murthyn/composer
|
2a04cf387dd8558556500f7ef2bc6d3d131043d5
|
[
"Apache-2.0"
] | null | null | null |
# Copyright 2021 MosaicML. All Rights Reserved.
from composer.algorithms.selective_backprop.selective_backprop import SelectiveBackprop as SelectiveBackprop
from composer.algorithms.selective_backprop.selective_backprop import select_using_loss as select_using_loss
from composer.algorithms.selective_backprop.selective_backprop import \
should_selective_backprop as should_selective_backprop
| 56.857143
| 108
| 0.889447
| 47
| 398
| 7.234043
| 0.382979
| 0.4
| 0.194118
| 0.273529
| 0.547059
| 0.547059
| 0.547059
| 0.547059
| 0
| 0
| 0
| 0.010899
| 0.077889
| 398
| 6
| 109
| 66.333333
| 0.915531
| 0.113065
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0.75
| 0
| 0.75
| 0
| 0
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
27c9f33ce7c930700e4526a10dcf616b03701194
| 158
|
py
|
Python
|
PBundler/entrypoints.py
|
fin/pbundler
|
2f46b05e767453eb3241900c1cba030e46d0a51c
|
[
"MIT"
] | 1
|
2016-08-30T19:15:26.000Z
|
2016-08-30T19:15:26.000Z
|
PBundler/entrypoints.py
|
fin/pbundler
|
2f46b05e767453eb3241900c1cba030e46d0a51c
|
[
"MIT"
] | null | null | null |
PBundler/entrypoints.py
|
fin/pbundler
|
2f46b05e767453eb3241900c1cba030e46d0a51c
|
[
"MIT"
] | null | null | null |
from PBundler import *
def pbcli():
return PBCli().run(sys.argv)
def pbpy():
argv = [sys.argv[0], "py"] + sys.argv[1:]
return PBCli().run(argv)
| 17.555556
| 45
| 0.594937
| 24
| 158
| 3.916667
| 0.541667
| 0.223404
| 0.297872
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.015873
| 0.202532
| 158
| 8
| 46
| 19.75
| 0.730159
| 0
| 0
| 0
| 0
| 0
| 0.012658
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.333333
| false
| 0
| 0.166667
| 0.166667
| 0.833333
| 0
| 1
| 0
| 0
| null | 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 1
| 1
| 0
|
0
| 7
|
e31d5368d9b8362df6d737eb7e62585fd1c174da
| 76
|
py
|
Python
|
src/test.py
|
bbarnes52/serverless-ci-demo
|
9b2ebf5d35f910914671ffe80351e127ec7fba1b
|
[
"Apache-2.0"
] | null | null | null |
src/test.py
|
bbarnes52/serverless-ci-demo
|
9b2ebf5d35f910914671ffe80351e127ec7fba1b
|
[
"Apache-2.0"
] | null | null | null |
src/test.py
|
bbarnes52/serverless-ci-demo
|
9b2ebf5d35f910914671ffe80351e127ec7fba1b
|
[
"Apache-2.0"
] | null | null | null |
"Simple hello world script."""
def hello_world():
return "Hello, world!"
| 15.2
| 30
| 0.684211
| 10
| 76
| 5.1
| 0.6
| 0.588235
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.157895
| 76
| 4
| 31
| 19
| 0.796875
| 0.342105
| 0
| 0
| 0
| 0
| 0.513158
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.333333
| true
| 0
| 0
| 0.333333
| 0.666667
| 0
| 1
| 0
| 0
| null | 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 0
| 1
| 1
| 0
|
0
| 7
|
8be21059d4a8ab153ddd74b73c33f97460667853
| 113
|
py
|
Python
|
openselfsup/version.py
|
Berkeley-Data/OpenSelfSup
|
221191b88d891de57725b149caf237ffef72e529
|
[
"Apache-2.0"
] | null | null | null |
openselfsup/version.py
|
Berkeley-Data/OpenSelfSup
|
221191b88d891de57725b149caf237ffef72e529
|
[
"Apache-2.0"
] | 6
|
2021-03-11T05:35:54.000Z
|
2021-04-03T22:25:11.000Z
|
openselfsup/version.py
|
Berkeley-Data/OpenSelfSup
|
221191b88d891de57725b149caf237ffef72e529
|
[
"Apache-2.0"
] | 1
|
2021-07-04T00:47:46.000Z
|
2021-07-04T00:47:46.000Z
|
# GENERATED VERSION FILE
# TIME: Fri Mar 12 13:50:43 2021
__version__ = '0.3.0+30773fd'
short_version = '0.3.0'
| 18.833333
| 32
| 0.699115
| 21
| 113
| 3.52381
| 0.714286
| 0.216216
| 0.243243
| 0.27027
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.242105
| 0.159292
| 113
| 5
| 33
| 22.6
| 0.536842
| 0.469027
| 0
| 0
| 1
| 0
| 0.315789
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
476ea19bcba67d0aeb4dfab19eb7bd605642bb3e
| 15,147
|
py
|
Python
|
equation_verification/sequential_model.py
|
ForoughA/recursiveMemNet
|
70b97e61b30758bf79f1e1e34168d7cffcbecc92
|
[
"MIT"
] | 14
|
2019-11-17T19:26:48.000Z
|
2021-05-31T00:06:31.000Z
|
equation_verification/sequential_model.py
|
ForoughA/recursiveMemNet
|
70b97e61b30758bf79f1e1e34168d7cffcbecc92
|
[
"MIT"
] | null | null | null |
equation_verification/sequential_model.py
|
ForoughA/recursiveMemNet
|
70b97e61b30758bf79f1e1e34168d7cffcbecc92
|
[
"MIT"
] | 2
|
2020-04-25T13:02:05.000Z
|
2021-01-10T15:38:21.000Z
|
from collections import OrderedDict
import sys
import math
import torch
import torch.nn as nn
import torch.nn.functional as F
from torch.autograd import Variable
from equation_verification.sequential_model_constants import VOCAB, SYMBOL_CLASSES
from equation_verification.constants import UNARY_FNS, BINARY_FNS, NUMBER_ENCODER, \
NUMBER_DECODER, SYMBOL_ENCODER, CONSTANTS
from equation_verification.dataset_loading import BinaryEqnTree
class LSTMchain(torch.nn.Module):
def __init__(self, num_hidden, dropout):
super().__init__()
self.layer = LSTMnode(num_hidden, num_hidden)
setattr(self, NUMBER_ENCODER, nn.Sequential(OrderedDict([
('linear1', nn.Linear(1, num_hidden)),
('sgmd1', nn.Sigmoid()),
('linear2', nn.Linear(num_hidden, num_hidden)),
('sgmd2', nn.Sigmoid())
])))
setattr(self, NUMBER_DECODER, nn.Sequential(OrderedDict([
('linear1', nn.Linear(num_hidden, num_hidden)),
('sgmd1', nn.Sigmoid()),
('linear2', nn.Linear(num_hidden, 1)),
])))
setattr(self, SYMBOL_ENCODER, nn.Embedding(num_embeddings=len(VOCAB),
embedding_dim=num_hidden))
self.bias = nn.Parameter(torch.FloatTensor([0]))
self.num_hidden = num_hidden
self.dropout = dropout
def forward(self, tree, hidden, trace=None):
"""
hidden is a tuple of hidden state and memory
hidden = (h, c)
"""
# print('modules:', self._modules)
# if not tree.is_leaf and tree.function_name not in self._modules:
# raise AssertionError("Unknown functional node: %s" % tree.function_name)
nn_block = getattr(self, SYMBOL_ENCODER)
if tree.is_binary:
root_value = VOCAB['Binary_'+tree.function_name]
root_encoded_value = Variable(torch.LongTensor([root_value])[0])
inp = nn_block(root_encoded_value)
h, c = self.layer(inp, hidden, dropout=self.dropout)
parentheses_value_l = VOCAB['parentheses_(']
left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0])
inp = nn_block(left_parentheses)
h,c = self.layer(inp, (h,c), dropout=self.dropout)
hl, cl = self(tree.lchild, (h,c), trace=trace.lchild if trace else None)
comma_value = VOCAB['parentheses_,']
comma = Variable(torch.LongTensor([comma_value])[0])
inp = nn_block(comma)
h, c = self.layer(inp, (hl,cl), dropout=self.dropout)
hr, cr = self(tree.rchild, (h,c), trace=trace.rchild if trace else None)
parentheses_value_r = VOCAB['parentheses_)']
right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0])
inp = nn_block(right_parentheses)
h, c = self.layer(inp, (hr, cr), dropout=self.dropout)
return h, c
elif tree.is_unary:
if tree.function_name in {NUMBER_DECODER, NUMBER_ENCODER,
SYMBOL_ENCODER}:
hl, _ = self(tree.lchild, hidden, trace=trace.lchild if trace else None)
nn_block = getattr(self, tree.function_name)
inp = nn_block(hl)
h,c = self.layer(inp, hidden, dropout=self.dropout)
else:
root_value = VOCAB['Unary_'+tree.function_name]
root_encoded_value = Variable(torch.LongTensor([root_value])[0])
inp = nn_block(root_encoded_value)
h, c = self.layer(inp, hidden, dropout=self.dropout)
parentheses_value_l = VOCAB['parentheses_(']
left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0])
inp = nn_block(left_parentheses)
h,c = self.layer(inp, (h,c), dropout=self.dropout)
hl, cl = self(tree.lchild, (h,c), trace=trace.lchild if trace else None)
parentheses_value_r = VOCAB['parentheses_)']
right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0])
inp = nn_block(right_parentheses)
h, c = self.layer(inp, (hl, cl), dropout=self.dropout)
return h, c
elif tree.is_leaf:
c = Variable(torch.LongTensor([0] * self.num_hidden))
if trace:
trace.output = tree.encoded_value.tolist()
trace.memory = c.tolist()
return tree.encoded_value, c
else:
raise RuntimeError("Invalid tree:\n%s" % repr(self))
def compute_batch(self, batch, trace=None):
record = []
total_loss = 0
for tree, label, depth in batch:
if trace is not None:
trace_item = eval(repr(tree))
trace.append(trace_item)
else:
trace_item = None
hl = Variable(torch.FloatTensor([0] * self.num_hidden))
cl = Variable(torch.FloatTensor([0] * self.num_hidden))
lchild, _ = self(tree.lchild, (hl,cl), trace=trace_item.lchild if trace else None)
hr = Variable(torch.FloatTensor([0] * self.num_hidden))
cr = Variable(torch.FloatTensor([0] * self.num_hidden))
rchild, _ = self(tree.rchild, (hr, cr), trace=trace_item.rchild if trace else None)
if tree.is_numeric():
assert (tree.lchild.is_a_floating_point and tree.rchild.function_name == NUMBER_DECODER) \
or (tree.rchild.is_a_floating_point and tree.lchild.function_name == NUMBER_DECODER)
loss = (lchild - rchild) * (lchild - rchild)
correct = math.isclose(lchild.item(), rchild.item(), rel_tol=1e-3)
if trace_item is not None:
trace_item.probability = lchild.item()
else:
out = torch.cat((Variable(torch.FloatTensor([0])), torch.dot(lchild, rchild).unsqueeze(0) + self.bias), dim=0)
loss = - F.log_softmax(out)[round(label.item())]
correct = F.softmax(out)[round(label.item())].item() > 0.5
if trace_item is not None:
trace_item.probability = F.softmax(out)[1].item()
trace_item.correct = correct
trace_item.bias = self.bias.tolist()
assert isinstance(correct, bool)
record.append({
"ex": tree,
"label": round(label.item()),
"loss": loss.item(),
"correct": correct,
"depth": depth,
"score": out[1].item() # WARNING: only works for symbolic data
})
total_loss += loss
return record, total_loss / len(batch)
class LSTMnode(torch.nn.Module):
def __init__(self, num_input, num_hidden):
super().__init__()
self.data = nn.Linear(num_input*2, num_hidden, bias=True)
self.forget = nn.Linear(num_input*2, num_hidden, bias=True)
self.output = nn.Linear(num_input*2, num_hidden, bias=True)
self.input = nn.Linear(num_input*2, num_hidden, bias=True)
def forward(self, inp, hidden, trace=None, dropout=None):
"""
Args:
inp : (num_hidden,)
hidden: ((num_hidden,), (num_hidden,))
Returns:
(num_hidden,), (num_hidden)
"""
h, c = hidden
h = torch.cat((h, inp), dim=0)
i = F.sigmoid(self.data(h))
f = F.sigmoid(self.forget(h))
o = F.sigmoid(self.output(h))
u = F.tanh(self.input(h))
if dropout is None:
c = i * u + f * c
else:
c = i * F.dropout(u,p=dropout,training=self.training) + f * c
h = o * F.tanh(c)
if trace:
trace.output = h.tolist()
trace.memory = c.tolist()
trace.i = [f.tolist()]
return h, c
class RNNchain(torch.nn.Module):
def __init__(self, num_hidden, dropout):
super().__init__()
self.layer = nn.Linear(2*num_hidden, num_hidden)
self.act1 = nn.Sigmoid()
self.layer2 = nn.Linear(num_hidden,num_hidden)
self.act2 = nn.Sigmoid()
setattr(self, NUMBER_ENCODER, nn.Sequential(OrderedDict([
('linear1', nn.Linear(1, num_hidden)),
('sgmd1', nn.Sigmoid()),
('linear2', nn.Linear(num_hidden, num_hidden)),
('sgmd2', nn.Sigmoid())
])))
setattr(self, NUMBER_DECODER, nn.Sequential(OrderedDict([
('linear1', nn.Linear(num_hidden, num_hidden)),
('sgmd1', nn.Sigmoid()),
('linear2', nn.Linear(num_hidden, 1)),
])))
setattr(self, SYMBOL_ENCODER, nn.Embedding(num_embeddings=len(VOCAB),
embedding_dim=num_hidden))
self.bias = nn.Parameter(torch.FloatTensor([0]))
self.num_hidden = num_hidden
self.dropout = dropout
def forward(self, tree, hidden, trace=None):
"""
hidden is the hidden state
hidden = h
"""
# print('modules:', self._modules)
# if not tree.is_leaf and tree.function_name not in self._modules:
# raise AssertionError("Unknown functional node: %s" % tree.function_name)
nn_block = getattr(self, SYMBOL_ENCODER)
if tree.is_binary:
root_value = VOCAB['Binary_'+tree.function_name]
root_encoded_value = Variable(torch.LongTensor([root_value])[0])
inp = nn_block(root_encoded_value)
inp = torch.cat((inp,hidden),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
parentheses_value_l = VOCAB['parentheses_(']
left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0])
inp = nn_block(left_parentheses)
inp = torch.cat((inp,h),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
hl = self(tree.lchild, h, trace=trace.lchild if trace else None)
comma_value = VOCAB['parentheses_,']
comma = Variable(torch.LongTensor([comma_value])[0])
inp = nn_block(comma)
inp = torch.cat((inp,hl),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
hr = self(tree.rchild, h, trace=trace.rchild if trace else None)
parentheses_value_r = VOCAB['parentheses_)']
right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0])
inp = nn_block(right_parentheses)
inp = torch.cat((inp,hr),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
return h
elif tree.is_unary:
if tree.function_name in {NUMBER_DECODER, NUMBER_ENCODER,
SYMBOL_ENCODER}:
hl = self(tree.lchild, hidden, trace=trace.lchild if trace else None)
nn_block = getattr(self, tree.function_name)
inp = nn_block(hl)
inp = torch.cat((inp,hidden),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
else:
root_value = VOCAB['Unary_'+tree.function_name]
root_encoded_value = Variable(torch.LongTensor([root_value])[0])
inp = nn_block(root_encoded_value)
inp = torch.cat((inp,hidden),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
parentheses_value_l = VOCAB['parentheses_(']
left_parentheses = Variable(torch.LongTensor([parentheses_value_l])[0])
inp = nn_block(left_parentheses)
inp = torch.cat((inp,h),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
hl = self(tree.lchild, h, trace=trace.lchild if trace else None)
parentheses_value_r = VOCAB['parentheses_)']
right_parentheses = Variable(torch.LongTensor([parentheses_value_r])[0])
inp = nn_block(right_parentheses)
inp = torch.cat((inp,hl),dim=0)
h = self.act1(F.dropout(self.layer(inp),p=self.dropout,training=self.training))
return h
elif tree.is_leaf:
if trace:
trace.output = tree.encoded_value.tolist()
#trace.memory = c.tolist()
return tree.encoded_value
else:
raise RuntimeError("Invalid tree:\n%s" % repr(self))
def compute_batch(self, batch, trace=None):
record = []
total_loss = 0
for tree, label, depth in batch:
if trace is not None:
trace_item = eval(repr(tree))
trace.append(trace_item)
else:
trace_item = None
hl = Variable(torch.FloatTensor([0] * self.num_hidden))
lchild = self(tree.lchild, hl, trace=trace_item.lchild if trace else None)
lchild = self.act2(F.dropout(self.layer2(lchild),p=self.dropout,training=self.training))
hr = Variable(torch.FloatTensor([0] * self.num_hidden))
rchild = self(tree.rchild, hr, trace=trace_item.rchild if trace else None)
rchild = self.act2(F.dropout(self.layer2(rchild),p=self.dropout,training=self.training))
if tree.is_numeric():
assert (tree.lchild.is_a_floating_point and tree.rchild.function_name == NUMBER_DECODER) \
or (tree.rchild.is_a_floating_point and tree.lchild.function_name == NUMBER_DECODER)
loss = (lchild - rchild) * (lchild - rchild)
correct = math.isclose(lchild.item(), rchild.item(), rel_tol=1e-3)
if trace_item is not None:
trace_item.probability = lchild.item()
else:
out = torch.cat((Variable(torch.FloatTensor([0])), torch.dot(lchild, rchild).unsqueeze(0) + self.bias), dim=0)
loss = - F.log_softmax(out)[round(label.item())]
correct = F.softmax(out)[round(label.item())].item() > 0.5
if trace_item is not None:
trace_item.probability = F.softmax(out)[1].item()
trace_item.correct = correct
trace_item.bias = self.bias.tolist()
assert isinstance(correct, bool)
record.append({
"ex": tree,
"label": round(label.item()),
"loss": loss.item(),
"correct": correct,
"depth": depth,
"score": out[1].item() # WARNING: only works for symbolic data
})
total_loss += loss
return record, total_loss / len(batch)
| 42.909348
| 126
| 0.569156
| 1,799
| 15,147
| 4.625903
| 0.093941
| 0.046503
| 0.019226
| 0.018505
| 0.877914
| 0.870824
| 0.857606
| 0.850276
| 0.828407
| 0.814468
| 0
| 0.008622
| 0.310821
| 15,147
| 352
| 127
| 43.03125
| 0.788581
| 0.044035
| 0
| 0.8
| 0
| 0
| 0.02316
| 0
| 0
| 0
| 0
| 0
| 0.014815
| 1
| 0.02963
| false
| 0
| 0.037037
| 0
| 0.111111
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
4781340f13a95a3b35f233f7243e069cdc20b73d
| 482
|
py
|
Python
|
utils/movement.py
|
Mordrog/pyarcanoid
|
0f5ef282edd2557e32bc4fc0aadd8c53ac825a33
|
[
"MIT"
] | null | null | null |
utils/movement.py
|
Mordrog/pyarcanoid
|
0f5ef282edd2557e32bc4fc0aadd8c53ac825a33
|
[
"MIT"
] | null | null | null |
utils/movement.py
|
Mordrog/pyarcanoid
|
0f5ef282edd2557e32bc4fc0aadd8c53ac825a33
|
[
"MIT"
] | null | null | null |
def is_moving_top_right(velocity):
return velocity.x > 0 and velocity.y < 0
def is_moving_bottom_right(velocity):
return velocity.x > 0 and velocity.y > 0
def is_moving_bottom_left(velocity):
return velocity.x < 0 and velocity.y > 0
def is_moving_top_left(velocity):
return velocity.x < 0 and velocity.y < 0
def is_moving_vertically(velocity):
return velocity.y != 0
def is_moving_horizontally(velocity):
return velocity.x != 0
| 21.909091
| 45
| 0.697095
| 74
| 482
| 4.324324
| 0.202703
| 0.09375
| 0.20625
| 0.359375
| 0.834375
| 0.759375
| 0.69375
| 0.69375
| 0.69375
| 0.69375
| 0
| 0.026596
| 0.219917
| 482
| 22
| 46
| 21.909091
| 0.824468
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.5
| false
| 0
| 0
| 0.5
| 1
| 0
| 0
| 0
| 0
| null | 0
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 1
| 0
| 0
|
0
| 7
|
9a3a6cde3e4f18a32adccdf24612fb0003d4470c
| 577,331
|
py
|
Python
|
hd_film_cehennemi_yorum_analizi.py
|
blackglowen/FilmCehennemiYorumAnalizi
|
5a8b623fb098765f1b975dd3fa6cfc828b19866f
|
[
"MIT"
] | null | null | null |
hd_film_cehennemi_yorum_analizi.py
|
blackglowen/FilmCehennemiYorumAnalizi
|
5a8b623fb098765f1b975dd3fa6cfc828b19866f
|
[
"MIT"
] | null | null | null |
hd_film_cehennemi_yorum_analizi.py
|
blackglowen/FilmCehennemiYorumAnalizi
|
5a8b623fb098765f1b975dd3fa6cfc828b19866f
|
[
"MIT"
] | null | null | null |
import requests
from bs4 import BeautifulSoup
import io
"""
yapılan işlemler kısaca;
sunulan seçeneklerden biri seçilince o film türü için senaryo başlar.
bu senaryoda film türünün bulunduğu sayfaya gider ve oradaki film adları çekilir.
sürekli güncellemelere karşılık film sayfalarında artış veya azalış olabilir. o yüzden bunun otomatik olarak program tarafında güncellenmesi gerkir.
bunun için çekilen film türü sayfasında en altta bulunan sayfa numaraları kısmında en son sayfaya gidilerek oradaki web adresinden sayfa numarası page/7 şeklinde bulunan 7 kısmı alınır.
bu bizim web adresinin kaç sayfadan oluştuğunu gösterir. ve bu bir for döngüsü içine aktarılarak film adları bir listeye eklenince sayfa sayısı kadar dolaşır yani bütün sayfaları dolaşır ve var olan bütün filmler
listmeize eklenmiş olur.
burda iki liste oluşturulur. birincisi film adlarının '-' olmadan ki halidir. ikincisi ise web adresine eklenecek olan ve içinde '-' karakteri olan listedir.
birinci liste içinde bir kaç işlem olur bunlardan bir tanesi web adresinden film adı çekilirken şu gelirdi. slate izle
kullanıcı izle ekini/kelimesini yazmayacağı için bunun kaldırılması için bir işlemden geçirilir. bunun yanında girilen isim büyük harfle yazılmışsa eğer hepsini küçük harflere çevirir.
çünkü kullanıcı yanlışlıkla bir harfi büyük yazarsa bile program aksamadan direk çalışmaya devam eder.
daha sonra bizden bir film adı girmemiz istenir.
girilen film adı bizim elimizde bulunan birinci liste içinde aranır bulunduğu zaman da web adresine eklenecek olan ek kısmı için bir atama gerçekleştirilir.
daha sonra o ek eklendikten sonra da o film adresine gidilir. ve filmin videosunun bulundğu sayfaya giderek orada yorum kısmı çekilir. çekilen kısımda bir hata olabilir o da filmin yorumsuz olmasıdır.
yorumsuz olduğu zaman <ol class... kısmı olmaz o yüzden bool ifadesinin içinde bir <ol class... olup olmadığı kontrol edilir. içi boş ise eğer bir hata mesajı verir ve programdan çıkılır.
eğer yorum varsa da o yorum kısmı çekilerek oradaki text ifadeleri çekilir ve yorumlama metoduna parametreler ile gönderilerek yorumun olumlu ve olumsuz olması araştırrlır ve bir çıktı elde edilir.
önemli not:
filmin çekileceği sitede eğer ki yorumlar tırnak işareti içerisinde bulunuyor ise türkçe karakter hatası verir. yani kelimeleri ,harfleri düzgün çekemeyiz. eğer ki tırnak içerisinde değilse kelimeleri türkçe karakter içerse bile hata vermeden
olduğu gibi çekebiliriz. hdfilmcehennemi sitesinde tırnak işareti içinde olduğu için hata aldık. filmmodunda ise öyle olmadığı için hata almadık o yüzden ikisi için de tanımlayabilmesi için ayrı aryı kodlar yazacağız.
"""
class Analiz():
def web_kismi(self):
girilen=input("lütfen bir tür seçiniz....")
film_nesnesi=film_turleri()
girilen=str(girilen) #tip dönüşümü yaptım çünkü sayısal bir değer girilebilir. program hata vermesin diye string tipine dönüştürdük.
if girilen=="2000 ve öncesi":
film_nesnesi.ikibin_ve_oncesi_filmleri()
elif girilen=="2001":
film_nesnesi.ikibin_bir_filmleri()
elif girilen=="2002":
film_nesnesi.ikibin_iki_filmleri()
elif girilen=="2003":
film_nesnesi.ikibin_uc_filmleri()
elif girilen=="2004":
film_nesnesi.ikibin_dort_filmleri()
elif girilen=="2005":
film_nesnesi.ikibin_bes_filmleri()
elif girilen=="2006":
film_nesnesi.ikibin_alti_filmleri()
elif girilen=="2007":
film_nesnesi.ikibin_yedi_filmleri()
elif girilen=="2008":
film_nesnesi.ikibin_sekiz_filmleri()
elif girilen=="2009":
film_nesnesi.ikibin_dokuz_filmleri()
elif girilen=="2010":
film_nesnesi.ikibin_on_filmleri()
elif girilen=="2011":
film_nesnesi.ikibin_on_bir_filmleri()
elif girilen=="2012":
film_nesnesi.ikibin_on_iki_filmleri()
elif girilen=="2013":
film_nesnesi.ikibin_on_uc_filmleri()
elif girilen=="2014":
film_nesnesi.ikibin_on_dort_filmleri()
elif girilen=="2015":
film_nesnesi.ikibin_on_bes_filmleri()
elif girilen=="2016":
film_nesnesi.ikibin_on_alti_filmleri()
elif girilen=="2017":
film_nesnesi.ikibin_on_yedi_filmleri()
elif girilen=="2018":
film_nesnesi.ikibin_on_sekiz_filmleri()
elif girilen=="2019":
film_nesnesi.ikibin_on_dokuz_filmleri()
elif girilen=="2020":
film_nesnesi.ikibin_yirmi_filmleri()
elif girilen=="2021":
film_nesnesi.ikibin_yirmi_bir_filmleri()
elif girilen=="aile":
film_nesnesi.aile_filmleri()
elif girilen=="aksiyon":
film_nesnesi.aksiyon_filmleri()
elif girilen=="animasyon":
film_nesnesi.animasyon_filmleri()
elif girilen=="belgesel":
film_nesnesi.belgesel_filmleri()
elif girilen=="bilim kurgu":
film_nesnesi.bilim_kurgu_filmleri()
elif girilen=="biyografi":
film_nesnesi.biyografi_filmleri()
elif girilen=="dini":
film_nesnesi.dini_filmleri()
elif girilen=="dram":
film_nesnesi.dram_filmleri()
elif girilen=="en iyi":
film_nesnesi.en_iyi_filmleri()
elif girilen=="fantastik":
film_nesnesi.fantastik_filmleri()
elif girilen=="gençlik":
film_nesnesi.genclik_filmleri()
elif girilen=="gerilim":
film_nesnesi.gerilim_filmleri()
elif girilen=="gizem":
film_nesnesi.gizem_filmleri()
elif girilen=="hint":
film_nesnesi.hint_filmleri()
elif girilen=="imdb":
film_nesnesi.imdb_filmleri()
elif girilen=="imdb top":
film_nesnesi.imdb_top_filmleri()
elif girilen=="komedi":
film_nesnesi.komedi_filmleri()
elif girilen=="kore":
film_nesnesi.kore_filmleri()
elif girilen=="korku":
film_nesnesi.korku_filmleri()
elif girilen=="macera":
film_nesnesi.macera_filmleri()
elif girilen=="marvel":
film_nesnesi.marvel_filmleri()
elif girilen=="muzikal":
film_nesnesi.muzikal_filmleri()
elif girilen=="polisiye":
film_nesnesi.polisiye_filmleri()
elif girilen=="psikolojik":
film_nesnesi.psikolojik_filmleri()
elif girilen=="romantik":
film_nesnesi.romantik_filmleri()
elif girilen=="savaş":
film_nesnesi.savas_filmleri()
elif girilen=="spor":
film_nesnesi.spor_filmleri()
elif girilen=="suç":
film_nesnesi.suc_filmleri()
elif girilen=="tarih":
film_nesnesi.tarih_filmleri()
elif girilen=="tavsiye":
film_nesnesi.tavsiye_filmleri()
elif girilen=="türk komedi":
film_nesnesi.turk_komedi_filmleri()
elif girilen=="western":
film_nesnesi.western_filmleri()
elif girilen=="yerli":
film_nesnesi.yerli_filmleri()
else :
print("yanlış değer girildi..\n lütfen doğru yazınız...")
tekrar=Analiz()
tekrar.web_kismi()
class film_turleri():
def ikibin_ve_oncesi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/eski-filmler'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/eski-filmler'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/eski-filmler/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum turkce_karakter_hatasi_var için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_bir_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2001-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2001-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2001-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_iki_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2002-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2002-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2002-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
print(len(film_adlari))
print("ilk film", film_adlari[0][0])
print("ilk film", film_adlari[5][17])
print(len(film_list_bir))
print(film_list_bir)
print("girilen film adlari", girilen_film_adlari)
print("girilen film adları boyutu:", len(girilen_film_adlari))
print("film adları=", film_adlari)
print("film adları boyutu", len(film_adlari))
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_uc_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2003-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2003-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2003-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_dort_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2004-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2004-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2004-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_bes_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2005-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2005-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2005-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_alti_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2006-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2006-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2006-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_yedi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2007-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2007-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2007-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_sekiz_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2008-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2008-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2008-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_dokuz_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2009-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2009-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2009-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2010-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2010-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2010-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_bir_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2011-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2011-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2011-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_iki_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2012-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2012-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2012-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_uc_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2013-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2013-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2013-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_dort_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2014-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2014-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2014-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_bes_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2015-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2015-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2015-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_alti_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2016-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2016-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2016-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_yedi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2017-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2017-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2017-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_sekiz_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2018-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2018-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2018-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_on_dokuz_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2019-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2019-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2019-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_yirmi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2020-filmleri-hd-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2020-filmleri-hd-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2020-filmleri-hd-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def ikibin_yirmi_bir_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2021-filmleri-fhd-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2021-filmleri-fhd-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/2021-filmleri-fhd-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(
film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def aile_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aile-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aile-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aile-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def aksiyon_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aksiyon-film-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aksiyon-film-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/aksiyon-film-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def animasyon_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/animasyon-film-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/animasyon-film-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/animasyon-film-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def belgesel_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/belgesel-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/belgesel-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/belgesel-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def bilim_kurgu_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/bilimkurgu-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/bilimkurgu-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/bilimkurgu-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def biyografi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/biyografi-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/biyografi-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/biyografi-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def dini_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
# buradaki if ve altında else kısmının amacı film türü girildiğinde sayfamız tek bir sayfadan oluşuyorsa yani altta bulunan sayfa numaraları kısmı yoksa if bloğu çalışır eğer sayfa numaraları kısmı varsa da else kısmı çalışır.
if bool(sayfa_sayisi_gelen_veri) == False:
print("sayfa adedi yoktur.")
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler/page/0'
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_adlari = []
girilen_film_adlari = []
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
else:
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dini-filmler/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(
len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = "20-yasinda-oleceksin-izle" # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır. burada aslında film_adlari[m][i] şeklinde atama yapmamız lazım ama türkçe karakterden dolayı deneme amaçlı cagri-izle dedik. böylece kullanıcı çağrı girdiğinde program çalışır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
# filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else: # yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def dram_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dram-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dram-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/dram-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def en_iyi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/en-iyi-filmler'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/en-iyi-filmler'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/en-iyi-filmler/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def fantastik_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/fantastik-film-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/fantastik-film-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/fantastik-film-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
#buraya fragmanlar da eklenebilir ama ben eklemedim.Sitede bu sırada böyle bir seçenek vardır.
def genclik_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/genclik-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/genclik-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/genclik-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def gerilim_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gerilim-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gerilim-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gerilim-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def gizem_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gizem-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gizem-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/gizem-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def hint_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/hint-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/hint-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/hint-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def imdb_filmleri(self): #imdb+7 filmleri içerir
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-7-ustu-filmler'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-7-ustu-filmler'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(3, len(sayfa_sayisi_listesi) + 1): # 3 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir.bir de tür adı içinde bir sayı daha vardır 7 onu almasın diye de 3 ten başlattık yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 3 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-7-ustu-filmler/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def imdb_top_filmleri(self):# imdb top 50 filmleri içerir.
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-top-250'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-top-250'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(5, len(sayfa_sayisi_listesi) + 1): # 5 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir.bir de tür adı içinde bir sayı daha vardır 250 onu almasın diye de 5 ten başlattık yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 5 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir. içinde kaç tane sayı olursa olsun şunları almasını istemedik.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
print("sayfa", sayfa_sayisi)
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/imdb-top-250/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def komedi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/komedi-filmleri-izlee'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/komedi-filmleri-izlee'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/komedi-filmleri-izlee/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
print(girilen_film_adlari)
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....\n")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
# filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else: # yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
"""
bu kısım elimizdeki yorumlar değişkeninde commentlist değeri var mıdır onun kontrolü yapılır. üst kısım ile aynıdır aslında bu farklı bir yöntemdir.
degisken=yorumlar[0].get("class") #yorumlardaki class özelliğini alıyoruz. yorum olduğunda commentlist özelliği vardır.
print("class değerleri",degisken)
print(degisken[0])
if degisken[0]=="commentlist": #yorum olduğunda commentlist özelliği olur. yorum varsa burası çalışır. yorum olmadığında commentlist olmadığı için burası çalışmaz.
print("doğru bulundu")
"""
############################
def kore_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/kore-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/kore-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/kore-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....\n")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
# filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else: # yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
"""
bu kısım elimizdeki yorumlar değişkeninde commentlist değeri var mıdır onun kontrolü yapılır. üst kısım ile aynıdır aslında bu farklı bir yöntemdir.
degisken=yorumlar[0].get("class") #yorumlardaki class özelliğini alıyoruz. yorum olduğunda commentlist özelliği vardır.
print("class değerleri",degisken)
print(degisken[0])
if degisken[0]=="commentlist": #yorum olduğunda commentlist özelliği olur. yorum varsa burası çalışır. yorum olmadığında commentlist olmadığı için burası çalışmaz.
print("doğru bulundu")
"""
def korku_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/korku-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/korku-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/korku-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def macera_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/macera-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/macera-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi",list)
print("link adresinin son karakteri",list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi=[] #bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu",len(list))
for i in range(1,len(list)):
if list[-i]=="0" or list[-i]=="1" or list[-i]=="2" or list[-i]=="3" or list[-i]=="4" or list[-i]=="5" or list[-i]=="6" or list[-i]=="7" or list[-i]=="8" or list[-i]=="9" :
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak=[]
for i in range(2,len(sayfa_sayisi_listesi)+1):#2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı",sayfa_sayisi_liste_olarak)
sayfa_sayisi="".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi=int(sayfa_sayisi)
print("sayfa",sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/macera-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
def marvel_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/marvel-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/marvel-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/marvel-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def muzikal_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/muzikal-filmler'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/muzikal-filmler'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/muzikal-filmler/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def polisiye_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/polisiye-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/polisiye-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/polisiye-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def psikolojik_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/psikolojik-film-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/psikolojik-film-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/psikolojik-film-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def romantik_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/romantik-film'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/romantik-film'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/romantik-film/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(
film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def savas_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/savas-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/savas-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
if bool(sonuc_duzgun.find_all("div",{"class":"wp-pagenavi"}))==False:
sayfa_sayisi=0
else:
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
print(list)
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/savas-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def spor_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/spor-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/spor-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/spor-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(
film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def suc_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/suc-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/suc-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/suc-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def tarih_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tarih-filmleri-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tarih-filmleri-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tarih-filmleri-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def tavsiye_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tavsiye-filmler-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tavsiye-filmler-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/tavsiye-filmler-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def turk_komedi_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/turk-komedi-filmleri'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/turk-komedi-filmleri'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/turk-komedi-filmleri/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def western_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/western-film-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/western-film-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/western-film-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
#filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: #bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else :#yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
############################
def yerli_filmleri(self):
# bir sayfanın sayfa sayısı bulunmaya çalışılıyor. çünkü sonradan film eklense bile film sayfa değişse bile sürekli olarak çalışabilmesi, her filmi inceleyebilmek için sayfanın sürekli en son sayfaya kadar gidebilmei, incelenebilmesi gerekir.
ana_sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/yerli-filmler-izle'
sys = requests.get(ana_sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
sayfa_sayisi_gelen_veri = soup.find_all("div", {"class": "wp-pagenavi"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(sayfa_sayisi_gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(sayfa_sayisi_gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/yerli-filmler-izle'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
yorumlar = sonuc_duzgun.find_all("a", {"class": "last"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
print("yorumlar kısmı", yorumlar)
print(type(yorumlar))
list = []
list = yorumlar[0].get("href") # burada elimizdeki bs4.element.ResultSet tipindeki değeri alıp bundaki href değerini yani link değerini alıyoruz. çünkü link uzantısında sayfa numarası vardır. biz bu şelilde o sayfa değerine ulaşıp for içinde kullanırız.
print("link adresi", list)
print("link adresinin son karakteri", list[-1]) # elimizde link değeri vardır bu link değerindeki en son karakter alınır. bu biz sayfa numarasını verir.
sayfa_sayisi_listesi = [] # bunu yapmamızdaki neden sitenin ekinde bulunan sayı tek haneli değilse bile çalışması için bir değerde tutulmalı.
print("list degerinin uzunluğu", len(list))
for i in range(1, len(list)):
if list[-i] == "0" or list[-i] == "1" or list[-i] == "2" or list[-i] == "3" or list[-i] == "4" or list[-i] == "5" or list[-i] == "6" or list[-i] == "7" or list[-i] == "8" or list[-i] == "9":
sayfa_sayisi_listesi.append(list[-i])
sayfa_sayisi_liste_olarak = []
for i in range(2, len(sayfa_sayisi_listesi) + 1): # 2 den başlattık çünkü değer içerisinde 1 tane 2 var bu film sitesinin adının içindeki 2 dir. yani sayfa sayısı olmadığı için bunu alamayız. +1 dedik çünkü 2 den başlayacağı için bir eleman eksik girer bu da sayfa sayısında eksiklik demektir.
sayfa_sayisi_liste_olarak.append(sayfa_sayisi_listesi[-i])
print(sayfa_sayisi_listesi)
print("sayfa sayısı", sayfa_sayisi_liste_olarak)
sayfa_sayisi = "".join(sayfa_sayisi_liste_olarak)
sayfa_sayisi = int(sayfa_sayisi)
print("sayfa", sayfa_sayisi)
film_adlari = []
girilen_film_adlari = []
# sayfalar arasında dolaşılan kısım
sayfa_sayisi = sayfa_sayisi + 1 # sayfa_sayisi değerini 1 arttırdık çünkü for içinde 0 dan başlayıp tange içindeki değere kadar devam ediyordu. sayfamızın değeri mesela 7 ise 0,1,2,3,4,5,6 ya kadar gidiyordu.hem en son sayfayı göremiyorduk hem de 0 ve 1 aynı sayfaya karşılık geldiği için liste içinde iki defa aynı sayfa yazılıyordu.
for i in range(1,sayfa_sayisi): # 1 den başlattık çünkü kore-filmleri , kore-filmleri/page/0 ve kore-filmleri/page/1 aynı sayfaya çıktığı için 1 den 7 ye kadar gittik(7 dahil değil) böyle yapmasaydık birinci sayfayı bir kaç kez ekler ve en son sayfayı eklemezdi.
sayfa_sayisi = str(i)
sayfa = 'https://www.hdfilmcehennemi2.pw/kategori/yerli-filmler-izle/page/' + sayfa_sayisi
sys = requests.get(sayfa)
soup = BeautifulSoup(sys.content, 'html.parser')
gelen_veri = soup.find_all("div", {"class": "movief"}) # film adlarının bulunduğu tagı aldım. sadece filmin adını içeren bir kısım vardı bende onu alabilidim.
list_sayfa_bir = []
for i in range(len(gelen_veri)): # elimizde bulunan film isimlerinin boyutu kadar dolaşsın.
list_sayfa_bir.append(gelen_veri[i].text) # listemizin içine var olan film adlarını ekledik.
toplam = 0
for i in range(len(list_sayfa_bir)):
list_sayfa_bir[i] = list_sayfa_bir[i].lower() # lower metodunun amacı içinde bulunduğu büyük harfli kelimeleri küçük harfe dönüştürmektir. böylece istediğimiz web sitesine gidebiliriz. çünkü orada her şey küçük harfle kodlanmış.
veri = list_sayfa_bir[0]
film_list_bir = []
for i in range(len(list_sayfa_bir)):
veri = list_sayfa_bir[i]
for j in range(len(veri)): # burada yapılan işlem her değeri parçalamak daha sonra da aralarına - işareti koymaktır.
sonuc = veri.split() # elimizdeki değeri parçalamaya yarar. mesela parantez içine biz , dersek virgüllere göre parçalar ve liste içinde her parçalanan değer bir listenin elemanı olur.
veri = "-".join(sonuc) # bu kullanımda ise liste içindeki elemanların arasına bu işareti koyar. bizimkilerde boşluk vardı. bunu kullanınca her elemanın kendi içinde olmak üzere arasına - işarei koyar.
film_list_bir.append(veri)
film_adlari.append(film_list_bir) # film adlari - koulmş hali içeriri. ve her sayfadaki - lenmiş halleri koyar ki bütün - olması gereken kısımlar tutulsun.
girilen_film_adlari.append((list_sayfa_bir)) # her seferinde çekilen biilgilerden film isimlerini bir yerde tutmamız gerekirdi çünkü eğer böyle yapmazsak sürekli en son hangi değerleri aldıysak içinde de o değerler bulunurdu.
# bu şekilde çekilen film adları bir yerde tutularak içerisindeki bilgiler değişmemiş oldu. Ve if li yapılarda kullanabildik.
# film listesindeki izle kısmını/ekini kaldırdık. Böylece kullanıcı sadece filmin adını girerek yorumların sonucunu görebilecek.
for m in range(len(girilen_film_adlari)): # listedeki bütün bloklar kadar ilerler. 6 sayfa ise 6 defa ilerler.
for j in range(len(girilen_film_adlari[m])): # her blok içindeki değer kadar ilerler. Yani her sayfada kaç adet film varsa o kadar işleme alır.
girilen_film_adlari[m][j] = girilen_film_adlari[m][j][:-5] # ilk sayfanın ilk filmindeki, filmadı izle kısmı vardır. burada son5 harf/karakter silinir biz de her film için izle ekini kaldırdık. böylece kullanıcı sadece film adını girdiğinde program çalışır.
# girilen film adlari ve film adları kısmının farkı birinde - işareti yok birinde vardır. biri girilen degeri kontrol etmek için diğeri de link kısmına film sayfasına gitsin diye ekleme yapar.
film_adi = input("lütfen küçük harfler ile filmin adını giriniz....\n")
# dışardan girilen film adının hangisi olduğu tespit etmek ve link uzantısına eklemek için yazıldı.
for m in range(len(girilen_film_adlari)): # bütün listenin boyutu kadar dolaş yani sayfa sayısı kadar
for i in range(len(girilen_film_adlari[m])): # bütün sayfaların içindeki filmleri dolaş. yani girilen_film_adlari[m] dediğimizde m 0 a eşittir. o zaman biz demiş oluyoruz ki 0. sayfanın boyutu kadar dolaş yani 0. sayfanın içinde kaç tane film varsa o kadar dolaş.
if film_adi == girilen_film_adlari[m][i]: # sayfalar içinde dolaşıp dışardan girilen film bulunana kadar dolaşır.
film_adimiz = film_adlari[m][i] # bulunan filmin - konularak oluşturulan listedeki bilgi film_adimiz değişkenine atanır.
break; # break dememizin nedeni mesela ilk sayfada filmi bulduysak gidip te bütün sayfaları dolaşmasın direk döngüden çıksın.
# yorumların çekildiği kısım ve aşağıda yorumlama ile sonuca ulaşılan kısım.
sayfa = 'https://www.hdfilmcehennemi2.pw/' + film_adimiz + '.html'
veri = requests.get(sayfa) # web sayfasındaki değeri alıp veri değişkenine atadık
sonuc = veri.text # elimizdeki bilgileri text haline getirdik yani bir metin halinde oldu
sonuc_duzgun = BeautifulSoup(sonuc, 'html.parser') # beautifulSoup nesnesine dönüştürdük.
# filmin bulunduğu sayfaya gidip orada yorum yapıladıysa hata mesajı verir ve programdan çıkılır.yorum varsa da yorum inceleme için else blogu çalışır.
if bool(sonuc_duzgun.find_all("ol", {"class": "commentlist"})) == False: # bool yaptık çünkü false ile karşılaştırdık. burda yapılan işlem site içinde ol commentlist yani film hakkında yorum var mıdır? kontrolü yapar.
print("Film için yorum bulunmamaktadır. İlginizi çektiyse izleyiniz.. \nProgramdan çıkılıyor...")
else: # yorum yapıldıysa çalışacak olan kısım..
yorumlar = sonuc_duzgun.find_all("ol", {"class": "commentlist"}) # sayfadaki ol kısmını getirir. bu ol içinde yorum listesi bulunur. yani yorumun kapsandığı kısmı getirir.
veri = yorumlar[0].text # yorumun kapsandığı kısımdan text olan değerleri getirir. içinde yazılan tarihle birlikte yorum ve kimin yazdığı gibi bilgiler de bulunur.
nesne = yorumlama()
nesne.turkce_karakter_hatasi_var(sayfa, veri, film_adi)
"""
bu kısım elimizdeki yorumlar değişkeninde commentlist değeri var mıdır onun kontrolü yapılır. üst kısım ile aynıdır aslında bu farklı bir yöntemdir.
degisken=yorumlar[0].get("class") #yorumlardaki class özelliğini alıyoruz. yorum olduğunda commentlist özelliği vardır.
print("class değerleri",degisken)
print(degisken[0])
if degisken[0]=="commentlist": #yorum olduğunda commentlist özelliği olur. yorum varsa burası çalışır. yorum olmadığında commentlist olmadığı için burası çalışmaz.
print("doğru bulundu")
"""
############################
class yorumlama():
def turkce_karakter_hatasi_olmadan(self,sayfa, veri, film_adi):
toplam_olumlu = 0
toplam_olumsuz = 0
veri=veri.lower()
for i in range(len(veri)): # film hakkında olumlu olabilecek kelimeleri içeriyorsa film hakkında olumlu yorum yapılmıştır. #türkçe karakter kullanılınca çeviricide hata olabiliyor. o yüzden bunları da tanımlamak lazım. kod bunları görünce anlaması gerekir.
if veri[i] == "f" and (veri[i + 1] == "i" or veri[i + 1] == "ı") and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and (veri[i + 6] == "ü" or veri[i + 6] == "u")and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l" and veri[i + 10] == "d" and (veri[i + 11] == "i" or veri[i + 11] == "ı"): # film güzeldi
toplam_olumlu += 1
if veri[i] == "d" and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "y" and veri[i + 3] == "g" and veri[i + 4] == "u" and veri[i + 5] == "l" and veri[i + 6] == "a" and veri[i + 7] == "n" and veri[i + 8] == "d" and (veri[i + 9] == "ı" or veri[i + 9] == "i") and veri[i + 10] == "m": # duygulandım
toplam_olumlu += 1
if (veri[i] == "g" or veri[i] == "ğ") and (veri[i + 1] == "ü" or veri[i + 1] == "u") and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == "d" and (veri[i + 6] == "i" or veri[i + 6] == "ı"): # güzeldi
toplam_olumlu += 1
if veri[i] == "h" and veri[i + 1] == "a" and veri[i + 2] == "r" and (veri[i + 3] == "i" or veri[i + 3] == "ı") and veri[i + 4] == "k" and veri[i + 5] == "a": # harika
toplam_olumlu += 1
if veri[i] == "m" and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "z" and veri[i + 5] == "a" and veri[i + 6] == "m": # muazzam
toplam_olumlu += 1
if veri[i] == "m" and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "a" and veri[i + 5] == "m": # muazam
toplam_olumlu += 1
if (veri[i] == "ç" or veri[i] == "c") and veri[i + 1] == "o" and veri[i + 2] == "k" and veri[i + 3] == " " and veri[i + 4] == "g" and (veri[i + 5] == "ü" or veri[i + 5] == "u") and veri[i + 6] == "z" and veri[i + 7] == "e" and veri[i + 8] == "l": # çok güzel
toplam_olumlu += 1
if veri[i] == "e" and (veri[i + 1] == "ğ" or veri[i + 1] == "g") and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "c" and veri[i + 6] == "e" and veri[i + 7] == "l" and (veri[i + 8] == "i" or veri[i + 8] == "ı"): # eğlenceli
toplam_olumlu += 1
if (veri[i] == "s" or veri[i] == "ş") and (veri[i + 1] == "i" or veri[i + 1] == "ı") and (veri[i + 2] == "i" or veri[i + 2] == "ı") and veri[i + 3] == "r": # siir
toplam_olumlu += 1
if veri[i] == "f" and (veri[i + 1] == "i" or veri[i + 1] == "ı") and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and (veri[i + 5] == "g" or veri[i + 5] == "ğ") and (veri[i + 6] == "u" or veri[i + 6] == "ü") and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l": # film guzel
toplam_olumlu += 1
if veri[i] == "f" and (veri[i + 1] == "i" or veri[i + 1] == "ı") and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and (veri[i + 6] == "u" or veri[i + 6] == "ü") and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l" and veri[i + 10] == "d" and (veri[i + 11] == "i" or veri[i + 11] == "ı"): # film guzeldi
toplam_olumlu += 1
if (veri[i] == "g" or veri[i] == "ğ") and (veri[i + 1] == "ü" or veri[i + 1] == "u") and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "f" and (veri[i + 7] == "i" or veri[i + 7] == "ı") and veri[i + 8] == "m": # güzel film
toplam_olumlu += 1
if veri[i] == "t" and veri[i + 1] == "e" and (veri[i + 2] == "ş" or veri[i + 2] == "s") and veri[i + 3] == "e" and veri[i + 4] == "k" and veri[i + 5] == "k" and (veri[i + 6] == "ü" or veri[i + 6] == "u") and veri[i + 7] == "r": # teşekkür
toplam_olumlu += 1
if veri[i] == "t" and veri[i + 1] == "e" and (veri[i + 2] == "ş" or veri[i + 2] == "s") and veri[i + 3] == "e" and veri[i + 4] == "k" and (veri[i + 5] == "ü" or veri[i + 5] == "u") and veri[i + 6] == "r": # teşekür
toplam_olumlu += 1
if veri[i] == "d" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "s" and veri[i + 4] == " " and veri[i + 5] == "v" and veri[i + 6] == "e" and veri[i + 7] == "r" and (veri[i + 8] == "i" or veri[i + 8] == "ı") and veri[i + 9] == "c" and (veri[i + 10] == "i" or veri[i + 10] == "ı"): # ders verici
toplam_olumlu += 1
# olumsuz kelimelerin tespiti:
if veri[i] == "b" and veri[i + 1] == "e" and (veri[i + 2] == "ğ" or veri[i + 2] == "g") and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "m" and veri[i + 6] == "e" and veri[i + 7] == "d" and (veri[i + 8] == "i" or veri[i + 8] == "ı") and veri[i + 9] == "m": # beğenmedim
toplam_olumsuz += 1
if veri[i] == "k" and (veri[i + 1] == "ö" or veri[i + 1] == "o") and veri[i + 2] == "t" and (veri[i + 3] == "ü" or veri[i + 3] == "u"): # kötü
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "b" and veri[i + 4] == "a" and veri[i + 5] == "t": # berbat
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "a" and veri[i + 2] == "k" and veri[i + 3] == "a" and veri[i + 4] == "m" and veri[i + 5] == "a" and veri[i + 6] == "d" and (veri[i + 7] == "ı" or veri[i + 7] == "i") and veri[i + 8] == "m": # bakamadım
toplam_olumsuz += 1
if (veri[i] == "ı" or veri[i] == "i") and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "y" and veri[i + 5] == "e" and veri[i + 6] == "m" and veri[i + 7] == "e" and veri[i + 8] == "d" and (veri[i + 9] == "i" or veri[i + 9] == "ı") and veri[i + 10] == "m": # izleyemedim
toplam_olumsuz += 1
if veri[i] == "s" and (veri[i + 1] == "ı" or veri[i + 1] == "i") and veri[i + 2] == "k" and (veri[i + 3] == "i" or veri[i + 3] == "ı") and veri[i + 4] == "c" and (veri[i + 5] == "ı" or veri[i + 5] == "i"): # sıkicı
toplam_olumsuz += 1
if (veri[i] == "g" or veri[i] == "ğ") and (veri[i + 1] == "u" or veri[i + 1] == "ü") and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "d" and veri[i + 7] == "e" and (veri[i + 8] == "g" or veri[i + 8] == "ğ") and (veri[i + 9] == "ı" or veri[i + 9] == "i") and veri[i + 10] == "l": # guzel degıl
toplam_olumsuz += 1
if (veri[i] == "ı" or veri[i] == "i") and (veri[i + 1] == "ç" or veri[i + 1] == "c") and (veri[i + 2] == "i" or veri[i + 2] == "ı") and veri[i + 3] == "m" and veri[i + 4] == " " and (veri[i + 5] == "ş" or veri[i + 5] == "s") and (veri[i + 6] == "i" or veri[i + 6] == "ı") and (veri[i + 7] == "ş" or veri[i + 7] == "s") and veri[i + 8] == "t" and (veri[i + 9] == "i" or veri[i + 9] == "ı"): # içim şişti
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "l" and veri[i + 3] == "a" and (veri[i + 4] == "s" or veri[i + 4] == "ş") and (veri[i + 5] == "ı" or veri[i + 5] == "i") and veri[i + 6] == "n" and (veri[i + 7] == "ı" or veri[i + 7] == "i") and veri[i + 8] == " " and veri[i + 9] == "v" and veri[i + 10] == "e" and veri[i + 11] == "r" and veri[i + 12] == "s" and (veri[i + 13] == "i" or veri[i + 13] == "ı") and veri[i + 14] == "n": # belasını versin
toplam_olumsuz += 1
print("olumsuz yorumların sayısı:", toplam_olumsuz)
print("olumlu yorumların saysı", toplam_olumlu)
dosyaya_yazma = open("C:\\Users\\Asus\\PycharmProjects\\yapay_zeka_staj_projesi\\dosyaya_yazma.txt", "a")
toplam_olumsuz = str(toplam_olumsuz)
toplam_olumlu = str(toplam_olumlu)
if toplam_olumlu == toplam_olumsuz:
sonucumuz = "film adı: " + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak= Değerler eşit bir şans verilebilir.\n\n"
dosyaya_yazma.write(sonucumuz) # encode kısmı eklemedir.
if toplam_olumlu < toplam_olumsuz:
sonucumuz = "film adı=" + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı" + toplam_olumlu + "\ntaviseye olarak=" + "izlemesen daha iyi\n\n"
dosyaya_yazma.write(sonucumuz)
if toplam_olumlu > toplam_olumsuz:
sonucumuz = "film adı=" + film_adi + "\ntoplam olumlu yorum saysı=" + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak=" + "izlenebilir\n\n"
dosyaya_yazma.write(sonucumuz)
dosyaya_yazma.close() # açılan dosya işlem bittikten sonra kapatılıyor ki bellekte yer kaplamasın.
print("filmin link adresi=", sayfa) # hangi filmin yorumunu merak ediyorsak o filme ait web sitesi
"""
HARF TANIMLAMA YERİ: BU PROGRAMDA EKSİK OLAN ŞEY ALINAN VERİYİ TÜRKÇE KARAKTERLERE DÖNÜŞTÜREMİYOR.
ö =ö
Å=ş
ü=ü
ı=ı
ç=ç
Ä=ğ
"""
def turkce_karakter_hatasi_var(self,sayfa, veri, film_adi):
toplam_olumlu = 0
toplam_olumsuz = 0
"""
ö =ö
Å=ş
ü=ü
ı=ı
ç=ç
Ä=ğ
"""
for i in range(len(veri)):
if veri[i]=="Å" and veri[i+1]=="":
veri=veri.replace("Å","s ") #replace ile bu değere ait bilgiler "s " ile değiştirildi. bu maketrans ve trasnlate ile aslında aynı işlevdedir. ama orada bazı noktalarda atama kısmında özellikle hata olduğu için
#replace kullanımını seçtim.
if veri[i]=="Ä" and veri[i+1]=="":
veri = veri.replace("Ä","g ")
if veri[i]=="Ã" and veri[i+1]=="¶":
veri = veri.replace("ö","o ")
if veri[i]=="Ã" and veri[i+1]=="¼":
veri = veri.replace("ü","u ")
if veri[i]=="Ä" and veri[i+1]=="±":
veri = veri.replace("ı","i ")
if veri[i]=="Ã" and veri[i+1]=="§":
veri = veri.replace("ç","c ")
# elimizdeki yorumları küçük harflere dönüştürdük ki hem karşılaştırma yaparken hem de aşağıda replace yaparken var olan olasılıkları azaltmaktı yani teşekkür kelimesinde büyük küçük için birden fazla olasılığı içeren replace kodu azaltmaktı.
veri=veri.lower()
#olasılıksal olarak fazla seçeneğin kontrol edildiği ve değiştirildiği kısım. aşağıdaki if kısımları ise bunların işlenmesi sonucu ortaya çıkan kelimeleri yakalamaya çalışan kısımdır.
veri=veri.replace("tes ekku rler","tesekkurler")
veri = veri.replace("tesekku rler", "tesekkurler")
veri = veri.replace("tes ekkurler", "tesekkurler")
veri=veri.replace("beg endim","begendim")
veri = veri.replace("beg endi m", "begendim")
veri = veri.replace("begendi m", "begendim")
veri = veri.replace("eg lenceliydi", "eglenceliydi")
veri = veri.replace("eg lenceli ydi", "eglenceliydi")
veri = veri.replace("eglenceli ydi", "eglenceliydi")
veri = veri.replace("gu zeldi", "guzeldi")
veri = veri.replace("hari ka", "harika")
veri = veri.replace("fi lm gu zel", "film guzel")
veri = veri.replace("film gu zel", "film guzel")
veri = veri.replace("fi lm guzel", "film guzel")
veri = veri.replace("duygulandi m", "duygulandim")
veri = veri.replace("c ok gu zel", "cok guzel")
veri = veri.replace("c ok guzel", "cok guzel")
veri = veri.replace("cok gu zel", "cok guzel")
veri = veri.replace("sii r", "siir")
veri = veri.replace("si ir", "siir")
veri = veri.replace("si i r", "siir")
veri = veri.replace("s iir", "siir")
veri = veri.replace("s ii r", "siir")
veri = veri.replace("s i ir", "siir")
veri = veri.replace("s i i r", "siir")
veri = veri.replace("fi lm guzeldi", "film guzeldi")
veri = veri.replace("fi lm gu zeldi", "film guzeldi")
veri = veri.replace("film gu zeldi", "film guzeldi")
veri = veri.replace("gu zel film", "guzel film")
veri = veri.replace("gu zel fi lm", "guzel film")
veri = veri.replace("guzel fi lm", "guzel film")
veri = veri.replace("tes ekkur", "tesekkur")
veri = veri.replace("tes ekku r", "tesekkur")
veri = veri.replace("tesekku r", "tesekkur")
veri = veri.replace("tesekur", "tesekur")
veri = veri.replace("ders veri ci", "ders verici")
veri = veri.replace("ders veri ci ", "ders verici")
veri = veri.replace("ders verici ", "ders verici")
veri = veri.replace("muhtes em", "muhtesem")
veri = veri.replace("mu htes em", "muhtesem")
veri = veri.replace("mu htesem", "muhtesem")
veri = veri.replace("tavsi ye ederim ", "tavsiye ederim")
veri = veri.replace("tavsi ye ederi m ", "tavsiye ederim")
veri = veri.replace("adamlar yapmi s", "adamlar yapmis")
veri = veri.replace("adamlar yapmi s ", "adamlar yapmis")
veri = veri.replace("adamlar yapmis ", "adamlar yapmis")
veri = veri.replace("cok iyi ydi", "cok iyiydi")
veri = veri.replace("cok i yiydi", "cok iyiydi")
veri = veri.replace("cok i yi ydi", "cok iyiydi")
veri = veri.replace("c ok iyiydi", "cok iyiydi")
veri = veri.replace("c ok iyi ydi", "cok iyiydi")
veri = veri.replace("c ok i yiydi", "cok iyiydi")
veri = veri.replace("c ok i yi ydi", "cok iyiydi")
veri = veri.replace("i yi ydi", "iyiydi")
veri = veri.replace("iyi ydi", "iyiydi")
veri = veri.replace("i yiydi", "iyiydi")
veri = veri.replace("cok iyi di", "cok iyiydi")
veri = veri.replace("cok i yidi", "cok iyiydi")
veri = veri.replace("cok i yi di", "cok iyiydi")
veri = veri.replace("c ok iyidi", "cok iyiydi")
veri = veri.replace("c ok iyi di", "cok iyiydi")
veri = veri.replace("c ok i yidi", "cok iyiydi")
veri = veri.replace("c ok i yi di", "cok iyiydi")
veri = veri.replace("izlenmeye deg er", "izlenmeye deger")
veri = veri.replace("i zlenmeye deg er", "izlenmeye deger")
veri = veri.replace("i zlenmeye deger", "izlenmeye deger")
veri = veri.replace("izlemeye deg er", "izlenmeye deger")
veri = veri.replace("i zlemeye deg er", "izlenmeye deger")
veri = veri.replace("i zlemeye deger", "izlenmeye deger")
veri = veri.replace("o n numara", "on numara")
veri = veri.replace("mahvo ldum", "mahvoldum")
veri = veri.replace("mahvo ldu m", "mahvoldum")
veri = veri.replace("mahvoldu m", "mahvoldum")
veri = veri.replace("su per", "super")
veri = veri.replace("izleyi n", "izleyin")
veri = veri.replace("i zleyin", "izleyin")
veri = veri.replace("i zleyi n", "izleyin")
#olumsuz kelimelerin dönüşümü
veri = veri.replace("beg enmedim", "begenmedim")
veri = veri.replace("beg enmedi m", "begenmedim")
veri = veri.replace("begenmedi m", "begenmedim")
veri = veri.replace("ko tu", "kotu")
veri = veri.replace("bakamadi m", "bakamadim")
veri = veri.replace("i zleyemedim", "izleyemedim")
veri = veri.replace("i zleyemedi m", "izleyemedim")
veri = veri.replace("izleyemedi m", "izleyemedim")
veri = veri.replace("siki ci", "sikici")
veri = veri.replace("si ki ci", "sikici")
veri = veri.replace("si kici", "sikici")
veri = veri.replace("guzel degi l", "guzel degil")
veri = veri.replace("guzel deg il", "guzel degil")
veri = veri.replace("guzel deg i l", "guzel degil")
veri = veri.replace("gu zel degil", "guzel degil")
veri = veri.replace("gu zel degi l", "guzel degil")
veri = veri.replace("gu zel deg il", "guzel degil")
veri = veri.replace("gu zel deg i l", "guzel degil")
veri = veri.replace("ic im s is ti", "icim sisti") #aslında bundan 64 tane olmalı her ihtimali kapsamalı ama biz sadece kullanımı doğru olanı yazdık.
veri = veri.replace("belasini versi n", "belasini versin")
veri = veri.replace("belasini versin", "belasini versin")
veri = veri.replace("belasini versi n", "belasini versin")
veri = veri.replace("belasi ni versin", "belasini versin")
veri = veri.replace("belasi ni versi n", "belasini versin")
veri = veri.replace("belasi ni versin", "belasini versin")
veri = veri.replace("belasi ni versi n", "belasini versin")
veri = veri.replace("bos bir fi lm", "bos bir film")
veri = veri.replace("bos bi r film", "bos bir film")
veri = veri.replace("bos bi r fi lm", "bos bir film")
veri = veri.replace("bos bir film", "bos bir film")
veri = veri.replace("bos bir fi lm", "bos bir film")
veri = veri.replace("bos bi r film", "bos bir film")
veri = veri.replace("bos bi r fi lm", "bos bir film")
veri = veri.replace("bos fi lm", "bos film")
veri = veri.replace("bos film", "bos film")
veri = veri.replace("bos fi lm", "bos film")
veri = veri.replace("film bos ", "film bos")
veri = veri.replace("fi lm bos", "film bos")
veri = veri.replace("fi lm bos ", "film bos")
veri = veri.replace("saatimi yedini z", "saatimi yediniz")
veri = veri.replace("saatimi yedi niz", "saatimi yediniz")
veri = veri.replace("saatimi yedi ni z", "saatimi yediniz")
veri = veri.replace("saatimi yediniz", "saatimi yediniz")
veri = veri.replace("saatimi yedini z", "saatimi yediniz")
veri = veri.replace("saatimi yedi niz", "saatimi yediniz")
veri = veri.replace("saatimi yedi ni z", "saatimi yediniz")
veri = veri.replace("saati mi yediniz", "saatimi yediniz")
veri = veri.replace("saati mi yedini z", "saatimi yediniz")
veri = veri.replace("saati mi yedi niz", "saatimi yediniz")
veri = veri.replace("saati mi yedi ni z", "saatimi yediniz")
veri = veri.replace("saati mi yediniz", "saatimi yediniz")
veri = veri.replace("saati mi yedini z", "saatimi yediniz")
veri = veri.replace("saati mi yedi niz", "saatimi yediniz")
veri = veri.replace("saati mi yedi ni z", "saatimi yediniz")
veri = veri.replace("satimi yediniz", "saatimi yediniz")
veri = veri.replace("satimi yedini z", "saatimi yediniz")
veri = veri.replace("satimi yedi niz", "saatimi yediniz")
veri = veri.replace("satimi yedi ni z", "saatimi yediniz")
veri = veri.replace("satimi yediniz", "saatimi yediniz")
veri = veri.replace("satimi yedini z", "saatimi yediniz")
veri = veri.replace("satimi yedi niz", "saatimi yediniz")
veri = veri.replace("satimi yedi ni z", "saatimi yediniz")
veri = veri.replace("sati mi yediniz", "saatimi yediniz")
veri = veri.replace("sati mi yedini z", "saatimi yediniz")
veri = veri.replace("sati mi yedi niz", "saatimi yediniz")
veri = veri.replace("sati mi yedi ni z", "saatimi yediniz")
veri = veri.replace("sati mi yediniz", "saatimi yediniz")
veri = veri.replace("sati mi yedini z", "saatimi yediniz")
veri = veri.replace("sati mi yedi niz", "saatimi yediniz")
veri = veri.replace("sati mi yedi ni z", "saatimi yediniz")
veri = veri.replace("saki n izleme", "sakin izleme")
veri = veri.replace("saki n i zleme", "sakin izleme")
veri = veri.replace("sakin i zleme", "sakin izleme")
veri = veri.replace("tavsi ye etmem", "tavsiye etmem")
print(veri)
for i in range(len(veri)): # film hakkında olumlu olabilecek kelimeleri içeriyorsa film hakkında olumlu yorum yapılmıştır. #türkçe karakter kullanılınca çeviricide hata olabiliyor. o yüzden bunları da tanımlamak lazım. kod bunları görünce anlaması gerekir.
if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "g" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "d" and veri[i + 6] == "i" and veri[i + 7] == "m": # begendim
toplam_olumlu += 1
if veri[i] == "d" and veri[i + 1] == "u" and veri[i + 2] == "y" and veri[i + 3] == "g" and veri[i + 4] == "u" and veri[i + 5] == "l" and veri[i + 6] == "a" and veri[i + 7] == "n" and veri[i + 8] == "d" and veri[i + 9] == "i" and veri[i + 10] == "m": # duygulandim
toplam_olumlu += 1
if veri[i] == "h" and veri[i + 1] == "a" and veri[i + 2] == "r" and veri[i + 3] == "i" and veri[i + 4] == "k" and veri[i + 5] == "a": # harika
toplam_olumlu += 1
if veri[i] == "m" and veri[i + 1] == "u" and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "z" and veri[i + 5] == "a" and veri[i + 6] == "m": # muazzam
toplam_olumlu += 1
if veri[i] == "m" and veri[i + 1] == "u" and veri[i + 2] == "a" and veri[i + 3] == "z" and veri[i + 4] == "a" and veri[i + 5] == "m": # muazam
toplam_olumlu += 1
if veri[i] == "e" and veri[i + 1] == "g" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "c" and veri[i + 6] == "e" and veri[i + 7] == "l" and veri[i + 8] == "i": # eglenceli
toplam_olumlu += 1
if veri[i] == "s" and veri[i + 1] == "i" and veri[i + 2] == "i" and veri[i + 3] == "r": # siir
toplam_olumlu += 1
if veri[i] == "f" and veri[i + 1] == "i" and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and veri[i + 6] == "u" and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l": # film guzel
toplam_olumlu += 1
if veri[i] == "f" and veri[i + 1] == "i" and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "g" and veri[i + 6] == "u" and veri[i + 7] == "z" and veri[i + 8] == "e" and veri[i + 9] == "l" and veri[i + 10] == "d" and veri[i + 11] == "i": # film guzeldi
toplam_olumlu += 1
if veri[i] == "c" and veri[i + 1] == "o" and veri[i + 2] == "k" and veri[i + 3] == " " and veri[i + 4] == "g" and veri[i + 5] == "u" and veri[i + 6] == "z" and veri[i + 7] == "e" and veri[i + 8] == "l": # cok guzel
toplam_olumlu += 1
if veri[i] == "g" and veri[i + 1] == "u" and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == "d" and veri[i + 6] == "i": # guzeldi
toplam_olumlu += 1
if veri[i] == "g" and veri[i + 1] == "u" and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "f" and veri[i + 7] == "i" and veri[i + 8] == "m": # guzel film
toplam_olumlu += 1
if veri[i] == "t" and veri[i + 1] == "e" and veri[i + 2] == "s" and veri[i + 3] == "e" and veri[i + 4] == "k" and veri[i + 5] == "k" and veri[i + 6] == "u" and veri[i + 7] == "r": # tesekkur
toplam_olumlu += 1
if veri[i] == "t" and veri[i + 1] == "e" and veri[i + 2] == "s" and veri[i + 3] == "e" and veri[i + 4] == "k" and veri[i + 5] == "u" and veri[i + 6] == "r": # tesekur
toplam_olumlu += 1
if veri[i] == "d" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "s" and veri[i + 4] == " " and veri[i + 5] == "v" and veri[i + 6] == "e" and veri[i + 7] == "r" and veri[i + 8] == "i" and veri[i + 9] == "c" and veri[i + 10] == "i": # ders verici
toplam_olumlu += 1
if veri[i] == "e" and veri[i + 1] == "f" and veri[i + 2] == "s" and veri[i + 3] == "a" and veri[i + 4] == "n" and veri[i + 5] == "e": # efsane
toplam_olumlu += 1
if veri[i] == "i" and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "y" and veri[i + 5] == "i" and veri[i + 5] == "n": # izleyin
toplam_olumlu += 1
if veri[i] == "s" and veri[i + 1] == "u" and veri[i + 2] == "p" and veri[i + 3] == "e" and veri[i + 4] == "r": #super
toplam_olumlu += 1
if veri[i] == "m" and veri[i + 1] == "a" and veri[i + 2] == "h" and veri[i + 3] == "v" and veri[i + 4] == "o" and veri[i + 5] == "l" and veri[i + 6] == "d" and veri[i + 7] == "u" and veri[i + 8] == "m": # mahvoldum
toplam_olumlu += 1
if veri[i] == "o" and veri[i + 1] == "n" and veri[i + 2] == " " and veri[i + 3] == "n" and veri[i + 4] == "u" and veri[i + 5] == "m" and veri[i + 6] == "a" and veri[i + 7] == "r" and veri[i + 8] == "a": # on numara
toplam_olumlu += 1
if veri[i] == "m" and veri[i + 1] == "u" and veri[i + 2] == "h" and veri[i + 3] == "t" and veri[i + 4] == "e" and veri[i + 5] == "s" and veri[i + 6] == "e" and veri[i + 7] == "m": # muhtesem
toplam_olumlu += 1
if veri[i] == "t" and veri[i + 1] == "a" and veri[i + 2] == "v" and veri[i + 3] == "s" and veri[i + 4] == "i" and veri[i + 5] == "y" and veri[i + 6] == "e" and veri[i + 7] == " " and veri[i + 8] == "e" and veri[i + 9] == "d" and veri[i + 10] == "e" and veri[i + 11] == "r" and veri[i + 12] == "i" and veri[i + 13] == "m": # tavsiye ederim
toplam_olumlu += 1
if veri[i] == "a" and veri[i + 1] == "d" and veri[i + 2] == "a" and veri[i + 3] == "m" and veri[i + 4] == "l" and veri[i + 5] == "a" and veri[i + 6] == "r" and veri[i + 7] == " " and veri[i + 8] == "y" and veri[i + 9] == "a" and veri[i + 10] == "p" and veri[i + 11] == "m" and veri[i + 12] == "i" and veri[i + 13] == "s": # adamlar yapmis
toplam_olumlu += 1
if veri[i] == "c" and veri[i + 1] == "o" and veri[i + 2] == "k" and veri[i + 3] == " " and veri[i + 4] == "i" and veri[i + 5] == "y" and veri[i + 6] == "i" and veri[i + 7] == "y" and veri[i + 8] == "d" and veri[i + 9] == "i": # cok iyiydi ve cok iyidi yorumlarını aynı şekilde komtrol eder.
toplam_olumlu += 1
if veri[i] == "i" and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "m" and veri[i + 6] == "e" and veri[i + 7] == "y" and veri[i + 8] == "e" and veri[i + 9] == " " and veri[i] == "d" and veri[i + 1] == "e" and veri[i + 2] == "g" and veri[i + 3] == "e" and veri[i + 4] == "r": # izlenmeye deger ve izlemeye deger kısımlarını içerir.
toplam_olumlu += 1
# olumsuz kelimelerin tespiti:
if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "g" and veri[i + 3] == "e" and veri[i + 4] == "n" and veri[i + 5] == "m" and veri[i + 6] == "e" and veri[i + 7] == "d" and veri[i + 8] == "i" and veri[i + 9] == "m": # begenmedim
toplam_olumsuz += 1
if veri[i] == "k" and veri[i + 1] == "o" and veri[i + 2] == "t" and veri[i + 3] == "u": # kotu
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "r" and veri[i + 3] == "b" and veri[i + 4] == "a" and veri[i + 5] == "t": # berbat
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "a" and veri[i + 2] == "k" and veri[i + 3] == "a" and veri[i + 4] == "m" and veri[i + 5] == "a" and veri[i + 6] == "d" and veri[i + 7] == "i" and veri[i + 8] == "m": # bakamadim
toplam_olumsuz += 1
if veri[i] == "i" and veri[i + 1] == "z" and veri[i + 2] == "l" and veri[i + 3] == "e" and veri[i + 4] == "y" and veri[i + 5] == "e" and veri[i + 6] == "m" and veri[i + 7] == "e" and veri[i + 8] == "d" and veri[i + 9] == "i" and veri[i + 10] == "m": # izleyemedim
toplam_olumsuz += 1
if veri[i] == "s" and veri[i + 1] == "i" and veri[i + 2] == "k" and veri[i + 3] == "i" and veri[i + 4] == "c" and veri[i + 5] == "i": # sikici
toplam_olumsuz += 1
if veri[i] == "g" and veri[i + 1] == "u" and veri[i + 2] == "z" and veri[i + 3] == "e" and veri[i + 4] == "l" and veri[i + 5] == " " and veri[i + 6] == "d" and veri[i + 7] == "e" and veri[i + 8] == "g" and veri[i + 9] == "i" and veri[i + 10] == "l": # guzel degil
toplam_olumsuz += 1
if veri[i] == "i" and veri[i + 1] == "c" and veri[i + 2] == "i" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "s" and veri[i + 6] == "i" and veri[i + 7] == "s" and veri[i + 8] == "t" and veri[i + 9] == "i": # icim sisti
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "e" and veri[i + 2] == "l" and veri[i + 3] == "a" and veri[i + 4] == "s" and veri[i + 5] == "i" and veri[i + 6] == "n" and veri[i + 7] == "i" and veri[i + 8] == " " and veri[i + 9] == "v" and veri[i + 10] == "e" and veri[i + 11] == "r" and veri[i + 12] == "s" and veri[i + 13] == "i" and veri[i + 14] == "n": # belasini versin
toplam_olumsuz += 1
if veri[i] == "s" and veri[i + 1] == "a" and veri[i + 2] == "a" and veri[i + 3] == "t" and veri[i + 4] == "i" and veri[i + 5] == "m" and veri[i + 6] == "i" and veri[i + 7] == " " and veri[i + 8] == "y" and veri[i + 9] == "e" and veri[i + 10] == "d" and veri[i + 11] == "i" and veri[i + 12] == "n" and veri[i + 13] == "i" and veri[i + 14] == "z": # saatimi yediniz
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "o" and veri[i + 2] == "s" and veri[i + 3] == " " and veri[i + 4] == "b" and veri[i + 5] == "i" and veri[i + 6] == "r" and veri[i + 7] == " " and veri[i + 8] == "f" and veri[i + 9] == "i" and veri[i + 10] == "l" and veri[i + 11] == "m": # bos bir film
toplam_olumsuz += 1
if veri[i] == "b" and veri[i + 1] == "o" and veri[i + 2] == "s" and veri[i + 3] == " " and veri[i + 4] == "f" and veri[i + 5] == "i" and veri[i + 6] == "l" and veri[i + 7] == "m": # bos film
toplam_olumsuz += 1
if veri[i] == "f" and veri[i + 1] == "i" and veri[i + 2] == "l" and veri[i + 3] == "m" and veri[i + 4] == " " and veri[i + 5] == "b" and veri[i + 6] == "o" and veri[i + 7] == "s": # film bos
toplam_olumsuz += 1
if veri[i] == "t" and veri[i + 1] == "a" and veri[i + 2] == "v" and veri[i + 3] == "s" and veri[i + 4] == "i" and veri[i + 5] == "y" and veri[i + 6] == "e" and veri[i + 7] == " " and veri[i+8] == "e" and veri[i + 9] == "t" and veri[i + 10] == "m" and veri[i + 11] == "e" and veri[i + 12] == "m": # tavsiye etmem
toplam_olumsuz += 1
print("olumsuz yorumların sayısı:", toplam_olumsuz)
print("olumlu yorumların saysı", toplam_olumlu)
dosyaya_yazma = open("C:\\Users\\Asus\\PycharmProjects\\yapay_zeka_staj_projesi\\dosyaya_yazma.txt", "a")
toplam_olumsuz = str(toplam_olumsuz)
toplam_olumlu = str(toplam_olumlu)
if toplam_olumlu == toplam_olumsuz:
sonucumuz = "film adı: " + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak= Değerler eşit bir şans verilebilir.\n\n"
dosyaya_yazma.write(sonucumuz) # encode kısmı eklemedir.
if toplam_olumlu < toplam_olumsuz:
sonucumuz = "film adı=" + film_adi + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı" + toplam_olumlu + "\ntaviseye olarak=" + "izlemesen daha iyi\n\n"
dosyaya_yazma.write(sonucumuz)
if toplam_olumlu > toplam_olumsuz:
sonucumuz = "film adı=" + film_adi + "\ntoplam olumlu yorum saysı=" + "\ntoplam olumsuz yorum sayısı=" + toplam_olumsuz + "\ntoplam olumlu yorum sayısı=" + toplam_olumlu + "\ntaviseye olarak=" + "izlenebilir\n\n"
dosyaya_yazma.write(sonucumuz)
dosyaya_yazma.close() # açılan dosya işlem bittikten sonra kapatılıyor ki bellekte yer kaplamasın.
print("filmin link adresi=", sayfa) # hangi filmin yorumunu merak ediyorsak o filme ait web sitesi
"""
HARF TANIMLAMA YERİ: BU PROGRAMDA EKSİK OLAN ŞEY ALINAN VERİYİ TÜRKÇE KARAKTERLERE DÖNÜŞTÜREMİYOR.
ö =ö
Å=ş
ü=ü
ı=ı
ç=ç
Ä=ğ
"""
deger=Analiz()
deger.web_kismi()
| 91.3065
| 474
| 0.690942
| 77,018
| 577,331
| 5.092004
| 0.013283
| 0.033995
| 0.026702
| 0.01251
| 0.979139
| 0.976146
| 0.974782
| 0.973221
| 0.970488
| 0.967249
| 0
| 0.009316
| 0.229291
| 577,331
| 6,323
| 475
| 91.3065
| 0.871834
| 0.517412
| 0
| 0.904601
| 0
| 0
| 0.143531
| 0.000672
| 0.000844
| 0
| 0
| 0
| 0
| 1
| 0.012241
| false
| 0
| 0.000633
| 0
| 0.013508
| 0.108274
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
d0710abd16d6e7d55b00796a878547ae68e00b59
| 1,809
|
py
|
Python
|
query_examples.py
|
omyllymaki/table-viewer
|
abdb8d1243d393711b196d951058c29336108d99
|
[
"MIT"
] | null | null | null |
query_examples.py
|
omyllymaki/table-viewer
|
abdb8d1243d393711b196d951058c29336108d99
|
[
"MIT"
] | null | null | null |
query_examples.py
|
omyllymaki/table-viewer
|
abdb8d1243d393711b196d951058c29336108d99
|
[
"MIT"
] | null | null | null |
import pandas as pd
from tabulate import tabulate
from src.filtering import filter_by_query
df = pd.read_csv("test_data/simple_test_data.csv")
print("Original data:")
print(tabulate(df, headers=df.columns))
print()
query = "tampere"
df_filtered = filter_by_query(df, query)
print("Query: ", query)
print(tabulate(df_filtered, headers=df_filtered.columns))
print()
assert df_filtered.index.to_list() == [3, 4, 6, 7]
query = "tam.*re"
df_filtered = filter_by_query(df, query)
print("Query: ", query)
print(tabulate(df_filtered, headers=df_filtered.columns))
print()
assert df_filtered.index.to_list() == [3, 4, 6, 7]
query = "[Lives, Born] tampere || [Nationality] finland"
df_filtered = filter_by_query(df, query)
print("Query: ", query)
print(tabulate(df_filtered, headers=df_filtered.columns))
print()
assert df_filtered.index.to_list() == [2, 3, 4, 6, 7]
query = "[Lives] [Born] tampere || [Nationality] finland"
df_filtered = filter_by_query(df, query)
print("Query: ", query)
print(tabulate(df_filtered, headers=df_filtered.columns))
print()
assert df_filtered.index.to_list() == [2, 3, 4, 6, 7]
query = "[Lives, Born] tampere && [Nationality] finland"
df_filtered = filter_by_query(df, query)
print("Query: ", query)
print(tabulate(df_filtered, headers=df_filtered.columns))
print()
assert df_filtered.index.to_list() == [3, 4, 6]
query = "[Lives] tampere && [Nationality] finland"
df_filtered = filter_by_query(df, query)
print("Query: ", query)
print(tabulate(df_filtered, headers=df_filtered.columns))
print()
assert df_filtered.index.to_list() == [4]
query = "[Lives] tampere|helsinki && [Nationality] finland"
df_filtered = filter_by_query(df, query)
print("Query: ", query)
print(tabulate(df_filtered, headers=df_filtered.columns))
print()
assert df_filtered.index.to_list() == [2, 3, 4]
| 30.15
| 59
| 0.735766
| 269
| 1,809
| 4.743494
| 0.144981
| 0.219436
| 0.081505
| 0.094044
| 0.82837
| 0.82837
| 0.82837
| 0.82837
| 0.82837
| 0.82837
| 0
| 0.015442
| 0.10503
| 1,809
| 59
| 60
| 30.661017
| 0.772699
| 0
| 0
| 0.673469
| 0
| 0
| 0.185185
| 0.016584
| 0
| 0
| 0
| 0
| 0.142857
| 1
| 0
| false
| 0
| 0.061224
| 0
| 0.061224
| 0.489796
| 0
| 0
| 0
| null | 1
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
|
0
| 8
|
d0cc26f9253ec22493da885041cf12a7f8fd34ba
| 305
|
py
|
Python
|
Templates/FuncApp-Http-Py-OptionC/ToolsC2/toolsC2.py
|
mmaysami/azure-functions-python
|
e97b29204af83bc1fc81b886f841fe7b7bc0c8a3
|
[
"MIT"
] | null | null | null |
Templates/FuncApp-Http-Py-OptionC/ToolsC2/toolsC2.py
|
mmaysami/azure-functions-python
|
e97b29204af83bc1fc81b886f841fe7b7bc0c8a3
|
[
"MIT"
] | null | null | null |
Templates/FuncApp-Http-Py-OptionC/ToolsC2/toolsC2.py
|
mmaysami/azure-functions-python
|
e97b29204af83bc1fc81b886f841fe7b7bc0c8a3
|
[
"MIT"
] | null | null | null |
import time
def sum2(a, b):
a = float(a)
b = float(b)
return a+b
def sub2(a, b):
a = float(a)
b = float(b)
return a-b
def pow2(a, b):
start = time.time()
a = float(a)
b = float(b)
return a**b
def div2(a, b):
a = float(a)
b = float(b)
return a//b
| 11.730769
| 23
| 0.481967
| 57
| 305
| 2.578947
| 0.210526
| 0.163265
| 0.190476
| 0.217687
| 0.70068
| 0.70068
| 0.70068
| 0.70068
| 0.70068
| 0.70068
| 0
| 0.020305
| 0.354098
| 305
| 25
| 24
| 12.2
| 0.725888
| 0
| 0
| 0.444444
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.222222
| false
| 0
| 0.055556
| 0
| 0.5
| 0
| 0
| 0
| 0
| null | 0
| 1
| 1
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
d0f382424e721e57f17d3885179cf3af59477c19
| 191
|
py
|
Python
|
best_practice/models/__init__.py
|
ustcsky/recommenders
|
64f0dd4653cf7f1d687c45c61807841415e111c7
|
[
"MIT"
] | null | null | null |
best_practice/models/__init__.py
|
ustcsky/recommenders
|
64f0dd4653cf7f1d687c45c61807841415e111c7
|
[
"MIT"
] | null | null | null |
best_practice/models/__init__.py
|
ustcsky/recommenders
|
64f0dd4653cf7f1d687c45c61807841415e111c7
|
[
"MIT"
] | null | null | null |
from .news_net import NewsNet
from .user_net import UserNet
from .squeezenet import SqueezeNet
# from torchvision.models import InceptinV3
# from torchvision.models import alexnet as AlexNet
| 31.833333
| 51
| 0.837696
| 26
| 191
| 6.076923
| 0.5
| 0.113924
| 0.265823
| 0.341772
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.005988
| 0.125654
| 191
| 5
| 52
| 38.2
| 0.94012
| 0.47644
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 0
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
ef899202b5102fe6f65a80a1dbfe4392c7058eae
| 24,016
|
py
|
Python
|
models/utils.py
|
lishuliang/Emotion-Recognition
|
a8aea1b71b2508e6157410089b20ab463fe901f5
|
[
"MIT"
] | 1
|
2019-03-16T08:11:53.000Z
|
2019-03-16T08:11:53.000Z
|
models/utils.py
|
lishuliang/Emotion-Recognition
|
a8aea1b71b2508e6157410089b20ab463fe901f5
|
[
"MIT"
] | null | null | null |
models/utils.py
|
lishuliang/Emotion-Recognition
|
a8aea1b71b2508e6157410089b20ab463fe901f5
|
[
"MIT"
] | null | null | null |
import tensorflow as tf
def bias_var(out_channels, init_method):
initial_value = tf.constant(0.0, shape=[out_channels])
biases = tf.Variable(initial_value)
return biases
def conv_var(kernel_size, in_channels, out_channels, init_method, name):
shape = [kernel_size[0], kernel_size[1], in_channels, out_channels]
if init_method == 'msra':
return tf.get_variable(name=name, shape=shape, initializer=tf.contrib.layers.variance_scaling_initializer())
elif init_method == 'xavier':
return tf.get_variable(name=name, shape=shape, initializer=tf.contrib.layers.xavier_initializer())
def attentional_transition(input_layer, name):
channels = input_layer.get_shape().as_list()[-1]
map_size = input_layer.get_shape().as_list()[1]
bottom_fc = tf.nn.avg_pool(input_layer, [1, map_size, map_size, 1], [
1, map_size, map_size, 1], 'VALID')
assert bottom_fc.get_shape().as_list()[-1] == channels # none,1,1,C
bottom_fc = tf.reshape(bottom_fc, [-1, channels]) # none, C
Wfc = tf.get_variable(
name=name+'_W1', shape=[channels, channels/2], initializer=tf.contrib.layers.xavier_initializer())
bfc = tf.get_variable(
name=name+'_b1', initializer=tf.constant(0.0, shape=[channels/2]))
mid_fc = tf.nn.relu(tf.matmul(bottom_fc, Wfc)+bfc)
Wfc = tf.get_variable(
name=name+'_W2', shape=[channels/2, channels], initializer=tf.contrib.layers.xavier_initializer())
bfc = tf.get_variable(
name=name+'_b2', initializer=tf.constant(0.0, shape=[channels]))
top_fc = tf.nn.sigmoid(tf.matmul(mid_fc, Wfc)+bfc) # none, C
top_fc = tf.reshape(top_fc, [-1, 1, 1, channels])
output_layer = tf.multiply(input_layer, top_fc)
return output_layer
def transition(input_layer, if_a, is_train, keep_prob, name):
channels = input_layer.get_shape().as_list()[-1]
output_layer = tf.contrib.layers.batch_norm(
input_layer, scale=True, is_training=is_train, updates_collections=None)
output_layer = tf.nn.relu(output_layer)
filters = conv_var(kernel_size=(1, 1), in_channels=channels,
out_channels=channels, init_method='msra', name=name)
output_layer = tf.nn.conv2d(output_layer, filters, [
1, 1, 1, 1], padding='SAME')
output_layer = tf.nn.dropout(output_layer, keep_prob)
# attentional transition
if if_a:
output_layer = attentional_transition(output_layer, name=name+'-ATT')
output_layer = tf.nn.avg_pool(output_layer, [1, 2, 2, 1], [
1, 2, 2, 1], padding='VALID')
return output_layer
def compress(input_layer, is_train, keep_prob, name):
channels = input_layer.get_shape().as_list()[-1]
output_layer = tf.contrib.layers.batch_norm(
input_layer, scale=True, is_training=is_train, updates_collections=None)
output_layer = tf.nn.relu(output_layer)
filters = conv_var(kernel_size=(1, 1), in_channels=channels,
out_channels=channels/2, init_method='msra', name=name)
output_layer = tf.nn.conv2d(output_layer, filters, [
1, 1, 1, 1], padding='SAME')
output_layer = tf.nn.dropout(output_layer, keep_prob)
return output_layer
def global_pool(input_layer, is_train):
output_layer = tf.contrib.layers.batch_norm(
input_layer, scale=True, is_training=is_train, updates_collections=None)
output_layer = tf.nn.relu(output_layer)
map_size = input_layer.get_shape().as_list()[1]
return tf.nn.avg_pool(output_layer, [1, map_size, map_size, 1], [1, map_size, map_size, 1], 'VALID')
def first_transit(input_layer, channels, strides, with_biase=False):
filters = conv_var(kernel_size=(3, 3), in_channels=3,
out_channels=channels, init_method='msra', name='first_tran')
conved = tf.nn.conv2d(input_layer, filters, [
1, strides, strides, 1], padding='SAME')
if with_biase == True:
biases = bias_var(out_channels=channels)
biased = tf.nn.bias_add(conved, biases)
return biased
return conved
def loop_block(input_layer, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name, loop_num=1):
if if_b:
# if bottleneck is used, the T value should be multiplied by 2.
layer_num = layer_num/2
channels = channels_per_layer
node_0_channels = input_layer.get_shape().as_list()[-1]
# init param
param_dict = {}
kernel_size = (1, 1) if if_b == True else (3, 3)
for layer_id in range(1, layer_num):
add_id = 1
while layer_id+add_id <= layer_num:
# ->
filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id))
param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters
# <-
filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id))
param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv
add_id += 1
for layer_id in range(layer_num):
filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1))
param_dict[str(0)+'_'+str(layer_id+1)] = filters
assert len(param_dict) == layer_num*(layer_num-1)+layer_num
### bottleneck param ###
if if_b == True:
param_dict_B = {}
for layer_id in range(1, layer_num+1):
filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+'to-'+str(layer_id))
param_dict_B[str(layer_id)] = filters
# init blob
blob_dict = {}
for layer_id in range(1, layer_num+1):
bottom_blob = input_layer
bottom_param = param_dict['0_'+str(layer_id)]
for layer_id_id in range(1, layer_id):
bottom_blob = tf.concat(
(bottom_blob, blob_dict[str(layer_id_id)]), axis=3)
bottom_param = tf.concat(
(bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2)
mid_layer = tf.contrib.layers.batch_norm(
bottom_blob, scale=True, is_training=is_train, updates_collections=None)
mid_layer = tf.nn.relu(mid_layer)
mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [
1, 1, 1, 1], padding='SAME')
mid_layer = tf.nn.dropout(mid_layer, keep_prob)
# Bottle neck
if if_b == True:
next_layer = tf.contrib.layers.batch_norm(
mid_layer, scale=True, is_training=is_train, updates_collections=None)
next_layer = tf.nn.relu(next_layer)
next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [
1, 1, 1, 1], padding='SAME')
next_layer = tf.nn.dropout(next_layer, keep_prob)
else:
next_layer = mid_layer
blob_dict[str(layer_id)] = next_layer
# begin loop
for loop_id in range(loop_num):
for layer_id in range(1, layer_num+1): # [1,2,3,4,5]
layer_list = [str(l_id) for l_id in range(1, layer_num+1)]
layer_list.remove(str(layer_id))
bottom_blobs = blob_dict[layer_list[0]]
bottom_param = param_dict[layer_list[0]+'_'+str(layer_id)]
for bottom_id in range(len(layer_list)-1):
bottom_blobs = tf.concat((bottom_blobs, blob_dict[layer_list[bottom_id+1]]),
axis=3) # concatenate the data blobs
bottom_param = tf.concat((bottom_param, param_dict[layer_list[bottom_id+1]+'_'+str(layer_id)]),
axis=2) # concatenate the parameters
mid_layer = tf.contrib.layers.batch_norm(
bottom_blobs, scale=True, is_training=is_train, updates_collections=None)
mid_layer = tf.nn.relu(mid_layer)
mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [
1, 1, 1, 1], padding='SAME') # update the data blob
mid_layer = tf.nn.dropout(mid_layer, keep_prob)
# Bottle neck
if if_b == True:
next_layer = tf.contrib.layers.batch_norm(
mid_layer, scale=True, is_training=is_train, updates_collections=None)
next_layer = tf.nn.relu(next_layer)
next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [
1, 1, 1, 1], padding='SAME')
next_layer = tf.nn.dropout(next_layer, keep_prob)
else:
next_layer = mid_layer
blob_dict[str(layer_id)] = next_layer
transit_feature = blob_dict['1']
for layer_id in range(2, layer_num+1):
transit_feature = tf.concat(
(transit_feature, blob_dict[str(layer_id)]), axis=3)
block_feature = tf.concat((input_layer, transit_feature), axis=3)
return block_feature, transit_feature
def loop_block_I_I(input_layer, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name):
if if_b:
# if bottleneck is used, the T value should be multiplied by 2.
layer_num = layer_num/2
channels = channels_per_layer
node_0_channels = input_layer.get_shape().as_list()[-1]
# init param
param_dict = {}
kernel_size = (1, 1) if if_b == True else (3, 3)
for layer_id in range(1, layer_num):
add_id = 1
while layer_id+add_id <= layer_num:
# ->
filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id))
param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters
# <-
filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id))
param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv
add_id += 1
for layer_id in range(layer_num):
filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1))
param_dict[str(0)+'_'+str(layer_id+1)] = filters
assert len(param_dict) == layer_num*(layer_num-1)+layer_num
### bottleneck param ###
if if_b == True:
param_dict_B = {}
for layer_id in range(1, layer_num+1):
filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+'to-'+str(layer_id))
param_dict_B[str(layer_id)] = filters
# init blob
blob_dict = {}
for layer_id in range(1, layer_num+1):
bottom_blob = input_layer
bottom_param = param_dict['0_'+str(layer_id)]
for layer_id_id in range(1, layer_id):
bottom_blob = tf.concat(
(bottom_blob, blob_dict[str(layer_id_id)]), axis=3)
bottom_param = tf.concat(
(bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2)
mid_layer = tf.contrib.layers.batch_norm(
bottom_blob, scale=True, is_training=is_train, updates_collections=None)
mid_layer = tf.nn.relu(mid_layer)
mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [
1, 1, 1, 1], padding='SAME')
mid_layer = tf.nn.dropout(mid_layer, keep_prob)
# Bottle neck
if if_b == True:
next_layer = tf.contrib.layers.batch_norm(
mid_layer, scale=True, is_training=is_train, updates_collections=None)
next_layer = tf.nn.relu(next_layer)
next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [
1, 1, 1, 1], padding='SAME')
next_layer = tf.nn.dropout(next_layer, keep_prob)
else:
next_layer = mid_layer
blob_dict[str(layer_id)] = next_layer
# no loop
transit_feature = blob_dict['1']
for layer_id in range(2, layer_num+1):
transit_feature = tf.concat(
(transit_feature, blob_dict[str(layer_id)]), axis=3)
block_feature = tf.concat((input_layer, transit_feature), axis=3)
return block_feature, transit_feature
def loop_block_I_II(input_layer, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name, loop_num=1):
if if_b:
# if bottleneck is used, the T value should be multiplied by 2.
layer_num = layer_num/2
import copy
channels = channels_per_layer
node_0_channels = input_layer.get_shape().as_list()[-1]
# init param
param_dict = {}
kernel_size = (1, 1) if if_b == True else (3, 3)
for layer_id in range(1, layer_num):
add_id = 1
while layer_id+add_id <= layer_num:
# ->
filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id))
param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters
# <-
filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id))
param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv
add_id += 1
for layer_id in range(layer_num):
filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1))
param_dict[str(0)+'_'+str(layer_id+1)] = filters
assert len(param_dict) == layer_num*(layer_num-1)+layer_num
### bottleneck param ###
if if_b == True:
param_dict_B = {}
for layer_id in range(1, layer_num+1):
filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+'to-'+str(layer_id))
param_dict_B[str(layer_id)] = filters
# init blob
blob_dict = {}
blob_dict_list = []
for layer_id in range(1, layer_num+1):
bottom_blob = input_layer
bottom_param = param_dict['0_'+str(layer_id)]
for layer_id_id in range(1, layer_id):
bottom_blob = tf.concat(
(bottom_blob, blob_dict[str(layer_id_id)]), axis=3)
bottom_param = tf.concat(
(bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2)
mid_layer = tf.contrib.layers.batch_norm(
bottom_blob, scale=True, is_training=is_train, updates_collections=None)
mid_layer = tf.nn.relu(mid_layer)
mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [
1, 1, 1, 1], padding='SAME')
mid_layer = tf.nn.dropout(mid_layer, keep_prob)
# Bottle neck
if if_b == True:
next_layer = tf.contrib.layers.batch_norm(
mid_layer, scale=True, is_training=is_train, updates_collections=None)
next_layer = tf.nn.relu(next_layer)
next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [
1, 1, 1, 1], padding='SAME')
next_layer = tf.nn.dropout(next_layer, keep_prob)
else:
next_layer = mid_layer
blob_dict[str(layer_id)] = next_layer
blob_dict_list.append(blob_dict)
# begin loop
for loop_id in range(loop_num):
blob_dict_new = copy.copy(blob_dict_list[-1])
for layer_id in range(1, layer_num+1): # [1,2,3,4,5]
layer_list = [str(l_id) for l_id in range(1, layer_num+1)]
layer_list.remove(str(layer_id))
bottom_blobs = blob_dict_new[layer_list[0]]
bottom_param = param_dict[layer_list[0]+'_'+str(layer_id)]
for bottom_id in range(len(layer_list)-1):
bottom_blobs = tf.concat((bottom_blobs, blob_dict_new[layer_list[bottom_id+1]]),
axis=3) # concatenate the data blobs
bottom_param = tf.concat((bottom_param, param_dict[layer_list[bottom_id+1]+'_'+str(layer_id)]),
axis=2) # concatenate the parameters
mid_layer = tf.contrib.layers.batch_norm(
bottom_blobs, scale=True, is_training=is_train, updates_collections=None)
mid_layer = tf.nn.relu(mid_layer)
mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [
1, 1, 1, 1], padding='SAME') # update the data blob
mid_layer = tf.nn.dropout(mid_layer, keep_prob)
# Bottle neck
if if_b == True:
next_layer = tf.contrib.layers.batch_norm(
mid_layer, scale=True, is_training=is_train, updates_collections=None)
next_layer = tf.nn.relu(next_layer)
next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [
1, 1, 1, 1], padding='SAME')
next_layer = tf.nn.dropout(next_layer, keep_prob)
else:
next_layer = mid_layer
blob_dict_new[str(layer_id)] = next_layer
blob_dict_list.append(blob_dict_new)
assert len(blob_dict_list) == 1+loop_num
stage_I = blob_dict_list[0]['1']
for layer_id in range(2, layer_num+1):
stage_I = tf.concat(
(stage_I, blob_dict_list[0][str(layer_id)]), axis=3)
stage_II = blob_dict_list[1]['1']
for layer_id in range(2, layer_num+1):
stage_II = tf.concat(
(stage_II, blob_dict_list[1][str(layer_id)]), axis=3)
block_feature = tf.concat((input_layer, stage_I), axis=3)
transit_feature = stage_II
return block_feature, transit_feature
def loop_block_X(input_layer, x_value, if_b, channels_per_layer, layer_num, is_train, keep_prob, block_name, loop_num=1):
if if_b:
# if bottleneck is used, the T value should be multiplied by 2.
layer_num = layer_num/2
channels = channels_per_layer
node_0_channels = input_layer.get_shape().as_list()[-1]
# init param
param_dict = {}
kernel_size = (1, 1) if if_b == True else (3, 3)
for layer_id in range(1, layer_num):
add_id = 1
while layer_id+add_id <= layer_num:
# ->
filters = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id)+'_'+str(layer_id+add_id))
param_dict[str(layer_id)+'_'+str(layer_id+add_id)] = filters
# <-
filters_inv = conv_var(kernel_size=kernel_size, in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(layer_id+add_id)+'_'+str(layer_id))
param_dict[str(layer_id+add_id)+'_'+str(layer_id)] = filters_inv
add_id += 1
for layer_id in range(layer_num):
filters = conv_var(kernel_size=kernel_size, in_channels=node_0_channels, out_channels=channels,
init_method='msra', name=block_name+'-'+str(0)+'_'+str(layer_id+1))
param_dict[str(0)+'_'+str(layer_id+1)] = filters
assert len(param_dict) == layer_num*(layer_num-1)+layer_num
### bottleneck param ###
if if_b == True:
param_dict_B = {}
for layer_id in range(1, layer_num+1):
filters = conv_var(kernel_size=(3, 3), in_channels=channels, out_channels=channels,
init_method='msra', name=block_name+'-'+'to-'+str(layer_id))
param_dict_B[str(layer_id)] = filters
# init blob
blob_dict = {}
for layer_id in range(1, layer_num+1):
bottom_blob = input_layer
bottom_param = param_dict['0_'+str(layer_id)]
for layer_id_id in range(1, layer_id):
bottom_blob = tf.concat(
(bottom_blob, blob_dict[str(layer_id_id)]), axis=3)
bottom_param = tf.concat(
(bottom_param, param_dict[str(layer_id_id)+'_'+str(layer_id)]), axis=2)
mid_layer = tf.contrib.layers.batch_norm(
bottom_blob, scale=True, is_training=is_train, updates_collections=None)
mid_layer = tf.nn.relu(mid_layer)
mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [
1, 1, 1, 1], padding='SAME')
mid_layer = tf.nn.dropout(mid_layer, keep_prob)
# Bottle neck
if if_b == True:
next_layer = tf.contrib.layers.batch_norm(
mid_layer, scale=True, is_training=is_train, updates_collections=None)
next_layer = tf.nn.relu(next_layer)
next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [
1, 1, 1, 1], padding='SAME')
next_layer = tf.nn.dropout(next_layer, keep_prob)
else:
next_layer = mid_layer
blob_dict[str(layer_id)] = next_layer
# begin loop
for loop_id in range(loop_num):
for layer_id in range(1, x_value+1): # [1,2,3,4,5]
layer_list = [str(l_id) for l_id in range(1, layer_num+1)]
layer_list.remove(str(layer_id))
bottom_blobs = blob_dict[layer_list[0]]
bottom_param = param_dict[layer_list[0]+'_'+str(layer_id)]
for bottom_id in range(len(layer_list)-1):
bottom_blobs = tf.concat((bottom_blobs, blob_dict[layer_list[bottom_id+1]]),
axis=3) # concatenate the data blobs
bottom_param = tf.concat((bottom_param, param_dict[layer_list[bottom_id+1]+'_'+str(layer_id)]),
axis=2) # concatenate the parameters
mid_layer = tf.contrib.layers.batch_norm(
bottom_blobs, scale=True, is_training=is_train, updates_collections=None)
mid_layer = tf.nn.relu(mid_layer)
mid_layer = tf.nn.conv2d(mid_layer, bottom_param, [
1, 1, 1, 1], padding='SAME') # update the data blob
mid_layer = tf.nn.dropout(mid_layer, keep_prob)
# Bottle neck
if if_b == True:
next_layer = tf.contrib.layers.batch_norm(
mid_layer, scale=True, is_training=is_train, updates_collections=None)
next_layer = tf.nn.relu(next_layer)
next_layer = tf.nn.conv2d(next_layer, param_dict_B[str(layer_id)], [
1, 1, 1, 1], padding='SAME')
next_layer = tf.nn.dropout(next_layer, keep_prob)
else:
next_layer = mid_layer
blob_dict[str(layer_id)] = next_layer
transit_feature = blob_dict['1']
for layer_id in range(2, layer_num+1):
transit_feature = tf.concat(
(transit_feature, blob_dict[str(layer_id)]), axis=3)
block_feature = tf.concat((input_layer, transit_feature), axis=3)
return block_feature, transit_feature
| 45.058161
| 121
| 0.607512
| 3,367
| 24,016
| 4.010692
| 0.043362
| 0.066351
| 0.068128
| 0.025918
| 0.907361
| 0.90388
| 0.893217
| 0.881739
| 0.87848
| 0.865966
| 0
| 0.018556
| 0.275192
| 24,016
| 532
| 122
| 45.142857
| 0.757224
| 0.036434
| 0
| 0.835411
| 0
| 0
| 0.011704
| 0
| 0.009975
| 0
| 0
| 0
| 0.014963
| 1
| 0.027431
| false
| 0
| 0.004988
| 0
| 0.064838
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
efc13e8c967945c14da12cf057f413e4f797d246
| 45
|
py
|
Python
|
unet/model/__init__.py
|
SyPRX/u-net
|
f542cfc108c465046bebeee29b1bd47d22c83a1b
|
[
"MIT"
] | 1
|
2020-05-05T13:46:39.000Z
|
2020-05-05T13:46:39.000Z
|
unet/model/__init__.py
|
SyPRX/u-net
|
f542cfc108c465046bebeee29b1bd47d22c83a1b
|
[
"MIT"
] | 2
|
2020-05-11T07:25:16.000Z
|
2022-02-10T01:47:42.000Z
|
unet/model/__init__.py
|
SyPRX/u-net
|
f542cfc108c465046bebeee29b1bd47d22c83a1b
|
[
"MIT"
] | null | null | null |
from unet.model.manager import Model_manager
| 22.5
| 44
| 0.866667
| 7
| 45
| 5.428571
| 0.714286
| 0.631579
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.088889
| 45
| 1
| 45
| 45
| 0.926829
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 1
| 0
| null | 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
5605d4e3b6151d8196f443b488a15956198a4c66
| 109,684
|
py
|
Python
|
src/api/colors/green.py
|
Gummybearr/cf-ratings
|
04d1defa49e3f2babcb6cce1bf0fd1c4b046530c
|
[
"MIT"
] | null | null | null |
src/api/colors/green.py
|
Gummybearr/cf-ratings
|
04d1defa49e3f2babcb6cce1bf0fd1c4b046530c
|
[
"MIT"
] | null | null | null |
src/api/colors/green.py
|
Gummybearr/cf-ratings
|
04d1defa49e3f2babcb6cce1bf0fd1c4b046530c
|
[
"MIT"
] | null | null | null |
green = "data:image/png;base64,iVBORw0KGgoAAAANSUhEUgAAAk0AAAElCAYAAAD5tdbyAAAABGdBTUEAALGPC/xhBQAAACBjSFJNAAB6JgAAgIQAAPoAAACA6AAAdTAAAOpgAAA6mAAAF3CculE8AAAABmJLR0QA/wD/AP+gvaeTAAAAB3RJTUUH5AsWBwcTjRML+gAAAAFvck5UAc+id5oAAIAASURBVHja7P1tzL5flxaErf1/nmFgEGqiQFPeKkRMfQGlGpsg+sHUNpZYk9o2pV9akn5qGvmgiV/80thvTVqa9kMraWKL1FZbU9RgCKVAkYJaUQYoImV4GQYHFIaBmWGYZ/67H65zr3Ucxzr2eZ7Xfd+/+37m8T4Hnuv6n/e+9l4vx1p7rbXXef4iPq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+rw+r8/r8/q8Pq/P6/P6vD6vz+vz+nLXeM/Fftvv+R3z3/3efy/+6J/4Y/F93/+n48//p38h/sqP/NX41rd+IsYYMWfEOCiaB3Ez+j26CSPHcW/OecwH92LGiPH4lHG0cK1S6x5/fnzCfLrGbr7jXqPvoMnNN2cQT01rBy04rniEe7PfQx6JPv0t6GDJY04hZQhRMHDJ+3HrQUuMGld/53tJU63MJOMv1ri5X4Pmm4HKrHH5WxSL3DvGqfgMefv5wghQxi26RhtncLDBRlfSlCUWNuSeGbdTupLc2Eh743uekSn2tmzhZL5p9JEX2ttmPr03gd/RyOv+YCcDGdeU9ex8Cg3hc/24/fZY7LEc+pWgezt/0H4b5t7k3y5/5ncWHjdFCLgGz+eExT42fZdng6FLm8pmPvIlJ/RtlN79wTKjcQjfz0dEDwTRIYshNMv+gbrMexu/Ma5+K7qs/a/4rf1vAZD3RJXfd33zm/Gzvudnx8/7G39u/OKf84vib/sFf1v8Pb/0V8Sv/KV/z7vGIq+5vjihv/3f+p3zd/y+3x3/3h/+9+P7f/AH4of/6l+Jv/JX/0r86I/9WPz4X//xiJ/8FjvlHrvc+xuNWxvkiBiw8bqd92ytKeN2Emzj9KYJAnZM3NXI7XFvsK7IaSsaK88e3C7jwm20/ewOj+P8ds63lYHT0Z357sh9/4flUh+++wrMNZ8LN5I9K0AzQV4YJNcmGjF2YrjkcYu0FoDIxjqN7A/TpX3GsfeEnY7JSzP61rjlN0743dhB4/euPuZjXaePEePFeHMJj9etBnR+4P35zumy4hwbfVDAdDHfSRC6X3hPpPJ2Od+VKAQcTuNxV99X9N2aY621X7evsfEPu3sZtD3W+Oqrr+Kb3/xm/PTv+u74nu/+nvgbfsbfED/re35W/OKf84viV/6Svzt+1d/+q+JX/C1/17d1APXFiPu9f+D3z9/1+/+t+H/+vt8d//7/93vjz//gD0R861sR3/VdEV99I+KrEV+Nrx4Rae6lM+aAXDQrFkht3zo4Ga5AKTNTqHg8/jwujXk2L+3qIrBc2+2hArb+d3Dg8NgUeu5NoDQ7ZWVpPC43GfrZODZmHTT6Em2+o+6QCc7BiU+hKoOhJermmEU3VaFsCQnoCBcsPPjKpcfJ3kkpe6FCpfUYNtqa1/uMqSAhjvD7dI6Sle6KO4/RD/uo+cQ+cE7JrucE5cT63YiJtnIojjZqIwSiL8cdUmj8OkfO0n3oscvCBSXe3hoykpcdtNDHDMCGY3hvHw1BcWofOpY2LLCPEPsYGyZO6RuH/QbYL4l3o6gBdo9+wwSx2/lETs4+VH4jiHOabNE4/BJN1EP0sVuY5uvJ3al9tMVPVV4aPbMPpXH9Lu0D6dv5FxO4K32yHzYhKlsDpVI0NW04IBhRzYj4en79+P9ffx1//Sd/In7md/+M+IV/8y+MX/G3/PL41X/HPxB//y/7e+OX/fxf9m0ZPH0Rov7F3/J/mb/5X/uX47f/3t8ZP/7Dfzniu35afPXNb2YZj461Fn5HlfrKkLh8jkcXiIrdMRkdf61MDkuHBIW+ad05GtjOp2VdPSpsNLMMSEOtgntnvunpM+XkPl+nxR1xeGHd5fcufT1rPDtaobKymw+C6N3RKGsS6PNwAWzseXNrXB0NnGHDyQAUt5nvQe3r6LMqvzj+epZfd3y9sQ9z4dGoJk5ru7H8XthvQEKXtBw79KV9wHdLHxylx7hhHxDZm1t7+wAcXPmD4vcN/JUEg1tMPmG/K3yx/grXIro4geL5GLNb+8Co8cQ+2FZO7EONandUGIP3yQufvfVXJ/jrGA9P85nfIH5AznrkuYYdNv8TP/kT8fXXX8fP/Rt/bvw3/t7/evyav+8fjX/o7/wHv+0Cpzcn6J/9X/xz83/7L/3v48//wPfHVz/je8TgjyXNSQ1FspKE7alHj4AMYT+OydaekIgLr3Dpy5E0cBr6dvPdpQ/Am/OtEmpb5Tl+xfjvC2bSuEewWkZt9dETqb0Ixi3OJMB2I8FR3prvporGiF7LMrTcVPp9fnc3pyxr7MOl8WM/nbKxhcF44sdSa3gL+6j5RB+X2Di/9XL6xD4av6/zV0Tfmf3iyO1ADCRuzGd17kRQAcS3jX0ofbGxj8v5XkPfG/irO/br9OFIoVU3NjNuysUd944w6474en4dP/rjPxr/5V/6K+PX/Vf/B/Fr/8H/7rdV4PRmxHz/n/uz85/9X/5z8X//7f9G/KUf/ssxxhIyRJlHWemq6XseNwfeDLh5UbFoTdWwrkmDNLEEkO+jaWqAixv0XVUiqHkummBePp9jztFnhzUdPeg7mQ+z+isdxY4+zW4qW7vSue/Enbd06SobvcS1VHRzPtXHjr7G2waT/ac353sBfcCwx8a1zv18z1fltv0zZ/bxpvZ7YR9I3y17e4397rDxUnuDCteV/eY42ahZvRe6fAv73fls9huUhV/5A63y7fDc5ttg48XzeVm1SlMY+9gETA5/ldDCCQ+Rshsn9H01WM5oR4dwSG/HUA7sD96OcV9//XXMmPGLfs4vjH/87/9vxj/z3/qnvm0Cpzch5I/88T86/9f/x/9d/OZ/7V+OH/rhvxxjPBq+aBVRpt5ikF9Q1lIeKbGK0b9EClv67ox0UfXt+YSmTebm/YFd5bn5lnh3KriV3qChY+XlhqB34hhbzvrAGyPvzxe3Lj/fwsNx96pztsfynr4LXfZMcGMfVLM/Yy4u7ff+TcPc2U9vCf+KZLTLG1q/C9Mr+raOrR8J3eqqviD5XtWrY2NrH3cKPs/YL1Q6fUXlhgxwvjtquOmz9QjxGWy4qS/pO8FGqF3ene+WDJDfTkq/ZzPGe+vfrELtkq+f/PonY4wRP/9v+vnx3/+H/nvxT/6a//G3ReD01Wsn+DN/7s/Of+H/9psfAdNf+k/jq298RQFT09dWhs6Bj/Pxdr4bm9L5LVI2/n3enm9ejvPzOX5HH7ibz46bV7e2VjjNvVvy2wxwzdI6buz+aH5qZ1PRj81IIwPLb5vvpjLHjj49Coib842b9MW9a1zoo4aZ/7ixuZ/+ad6a5vTMIOe7so9xMl+/+Yx9nNI3bs5HDmZejvPzvS45jBt2efnHpO8KGxd/f4V9WPru2scNbLhxw+pyPKFzN9+8HHc3cmL7QFswDfKzzzDt4nfWvfM7XGe2//7GN74RM2b8mf/k++M3/a7/U/zm3/1/vj/hF7xeHTT9C//qb45/6V//v8YP/YUfjG/8tO8WfzWzDDIgxtE8Yw7IRHYRax5dDZiPs7b1JB6/Q0SvgyYhxtyKdbqYEfcq7bQfL/qgfB4r7Fi9FDOHVYKxwUAKJsgZLYeUPRBjRPULoVR3VaaZzmDHb5WWT+hCRkAHqQ8ovduqBs3nF2sqb5wNP3Ajgxq2eimmGWWAsLnGGBlAVY/BKN1Q5ryrJMz8TPuYO36FpnaTtZn0TXgAIow+cBGiiXW+s9/86VF6T353I+F4acnc2cdpUGd0tLWPNU9WEqxUQfglA8sF0bcDBwwATDp/tXTjg2KkaUMy0od+lJKejb8Sh5v6GOsYh6ExN9jYVR7IPkDnSw8TaYlz+4iIU3+Ao739dm3Sg0nB9kHyo/n2mPT2OxJN6S4NNrrPPoKa6f1V6qPZb6drfSn9rp2JsYOV2aoyrePD2ijbk3cUEA7+9LfgHtjC6CdE3/jqG/HVV1/Fn/zBPxn/h9/5m+K3/Dv/+ocHTjdTFH/9tt/z/5i//n/2z8Qf+d4/EN/4mT/r1swteB53iRgWtLgZv1UTJdEX2FSto6TEPOyv5c5FsoUGoOPGSENa+3Dnd4phns0HIh37Yec3eRGk5a2aKL1EXYp2xrCj71l+HX21Hh8HLVJunHFsIER4udLlGijNDVv72B7tncugS5Rl0Jl6Y/u4pM/oY1iqX8HvBU0nikNsbB+K2Ihvl1x0+zX6MNj4cPvAu08cy72cvi/kry7td6TPPjVqtMt5oo+zYLUJq/N7VqTzNnMig50fMrf6utDrZOxDrx/+sR+O/86v+ifi1/+a/0n8Hb/ob39V7PKa61WVpv/Nb/qN8ad/4PsjvvunB2ZpqSsoAXJWytWblRk1aUGmklE3ZJOZtaxIHJrTHhdWDipjo+Qml6oqwcr6MlPFjAzPeCFTqaw+6l4MoE8zQRHM+j4jqIoRLIPMSmFcZYBa2Yiqyi3dgGjTNnM4y4CEBYrTqhLKYMm+ZW6oAwwmVASQgawMdWVprHOlr5xDyW8W342+zloHKtOyvjN9lZWSPhaPTemiD0iy0bFMlcEQEIGtEP6guoR9M1NlIDo4tQ+DjWlk0AR4Zh/xQvsgfsU+RlUvOn1gH8Jc3RL7YNg3TLKwSkeEP8Fk8jvlHuogsSMkk50wNth+N/Yh2Li0DzSFM/vI+S7sw/qDG/YBOlnD2N7AcYQoLkQfWPlTf6X2ixUV9Fei8rVWBSQGf0iTBDNsv2stxkazD5unjCR3yy/JlOU34be4rwbYKFautITE64reABsBa6R8DvymvYGsFn0/47u/J37fH/u347f8O/9GfOT14qDpX/sd/+b8/f/Bvxt/9Ud+JL76xjcDPV8KFxSB5cCyaTaQxwVIyLL1fLxYDMqoj/kOY53dWFOxa2GovJhbMedjjXSeSRN+X86nHNDikYH3cGKPY8cB/BaIikcUTCRQdbObc9ITNWUM8lRMzleATvrSmB+k44kR8ZuyBwJBcUUfP3mBhoHZ2gBsOCEUfeDbj//jYE/pA2SBczhskILLTl8tajM3zL7mbJtd0Qeb4yHU9tQT8TtS9rW5Gxgs54lYRH0seQA2Ah1RzgebWYpKE4AL+0B9xIV9ICdn9oH03bEPNMEAfSx/gPYxxT60HCNBaKdP7GPGhl8c2O2DjkJF9rSBYADW7JexkX8SbHj7HZYRlD0+BYl0NVM4sw/AxtzIfgA2BmDjzD7wVSUK2eQRA40RD99MtsLYqGBV+RUdZZTSQYkirWAGZI/6IPsdRV+IPsBPEX1pv2TyTQdJ2BgxM9gB/Q7V+UNWk2guQRNOh9BAcgY+NAAbLCN3DIfBJemX5PdY45vf+Gb8+b/8F+L3/7F/O773T/0hDRnf7XpR0PR9f+ZPzX/5t/6r8Rf/8l8qYRsdPnXz8tbYjrMr3FvCD3zVfHfpG+anN398texdUQ376+1vb1N3U1bjzbBxNt/dJUbugzXfZsIpk2zpmzLfTfpeog/6jxN/coKNL2Mf0928Md9N+6DMdy8CCnRo4z0RAs5t57v702v/fmW/GGJN+6O7883293kmg7x1bh99vhv2cdL0fU5fH+h0uQvEW6+rEbSfz/E79tqdYcbrvdmShtP5JJjasXF+7UbO/Z8lyEShOtuyysxbk+51PHvFjRjx9ZzxfX/hT8W/8f/5rbe5fevrRUHTn/5z3x+//ff+zvj665+Mr77xDciyIkvcKCeNOqv8hheEmFTuXvWkylKqaZQrAP1a2QcT4+kbj3/GYGWfVS6TH49HCYnK3WUAj1Ezk4o6/tqYwgAi8haXu6mUn+XuyT/OyleXAXEBpOOynd3hbgaVk6EKNpKqqpD1n3oZGJXHAK2nY3IDSYCLpnLK45C9ipn+GRrNoht9XNGspkxsGoWUOJXuZsPjIKY86XOskSDFPhZ9aR/4U7APg42n7AMzyTP7wPIMzXfS9H1lH0SfNn3PGPDG/1Xt6dgIo/MTfxVnqoT5yFZWVcU33ONxUJtu+wQGkEzsmCbjZkgbGYzSA3JH9qGwO7ugaoC1sSmfUrrbcFky12HNX5FgRDeIyTBvVwc+vT84x2RXl9iHwUb32UUuVn2IX/QHO3qWzlc9CY7J3ENItSe7RvUiQeNf1LcIi/KWRMFYNlq2Ogc+kHLMIerjdaui9dO++V3xQz/yQ/G7/sjviY+6XhQ0/cH/8A/FD3z/n4qvvz4CGigtcvkX5IHVvDRWuPKwesJ8WO6ubKeOQiry1cw0nfqMOk0DhRR9eI4cBLby+HguPWNAaTH5PQBI5d1AH2acZ/O7ZcDT0UJVPXBOQAssQcZAFf+WBEzSUWbHuange2X0qBAdpeoI5zP0lcqhWq9HDRWY4sAJhpTBAgS8c4ONVOsYG35LRktH/WhU9DGDNwvRR80n9iH7eP1E7CODAF6X7YP7/Rpe1D7WymCXW/sA2TsZLEykd59z4w86Npp9pP1OZLfsYwTzm/YbQJ/ZvHG3IH5FHwyrvT5ox8RmVjm6FWy442u1j4UJ3LILL0gL9EylrE7sAxa7tI/ayb19oI6O772fZbLOa2HPL+yUvXUA6ZvB6h1CH/TKHIbX/VWN8/4gjP3WGqSP4HVVBhzEo/3WGmkfgg0ng8f4if/R1uCXsqrPmWAKGx9h1wWZOtsq8YmsAAfK73TrdvktYr766qv4az/x1+L7/sKfjP/XH/m9m6j2y15PB03/wR/93vkH/+gfivjmN4i5/Dd0QNDohFOoGEISKFlx+YZWUCo1p8E4FjhPXfRhQC5NrZBaFvD4x9QrMThKrqx0bbIB2Vx0+sBIKytlGaSRBmf1uyZKCn4Cs0gaVnqBdftANWB8FNQ3fQfIpRVFSPYlF9wwtemb5+uMuAbbFfzWsFn8oj6WzS/6AvgFWtCh8qYI9FFTdTFM2BhrUylZjDD2gRWcyQJ0DbZYXeKm6sn0mcthg+xDgh6eT368wUaTQdIH+phClPgB0ofqaG1IMxgvZWRAn2Aj2F9VUBsyX3R+J2y2IHtrH2DHbL8b+0B4ntkHzXdiH0Rfx+TWPnb+ALBx1vTd/cHGX6E+xH+Tv0J9YIQ/is9mH6BUbqoW+8AIddAH2wcYrT4UsWip5MHZ76EPsY9ySWAfyw20DUTsI79jL1mAjiJtR/e8keMMAMlJRDEvGKcAx2DjIRb1TZNUaP0fritN+F999VX85E/+ZPyB7/sD8RHXN5/9wQ/84H8c/+H3/fGI8Q1SDB4LSNBfWekIAgp6am5kjTJ0jUbx+5CTXfDniN0MapI+pqVVSjIVnbkOPZUTwO8olGszG6i/GSY3slbQpcC39E1dRJ7aWPTNNgxogu2Amr6BvtTBmo/fodGaKAfIAxUDjkAfKBuwbmVutYuP7rFgc1Tjjw199FNRzIJObXBpqxtsDMDGrqmaAnKiT7CxkQERLfZR88HxD+jByUAvPXYitU3GhsNkgI5q8xkwX5XkFRsOkwHrZqCROMRAR2XvdBSNOd7g0H47NkgfAfqYYh+oD7SP5g+6jrb2Adg4tQ/yByf2gfxusCGmj0BgfhcOlz52/ipEBht/ldXhhZczfzUv7COg2jfBPlT2qA/aS4KuDDhyHFdqkC5rH6gPwIa1D8HG1j5ihz/YmwZXlRrNZDMiAwVg2jkIIflRXT5kUesWDjTAbvo19O2AsOb6ya9/Mv7I9//R+L4f/JPzb/l5/0Xv5L7Q9XSl6S/8xf8k/tSf/dOPf2/mi11vMffFHPPeLG+xnJbiv8hSd+c1m+jr5rtL33jxj9+evjfCrve391g/IXBcTDj2P31i/dG/nS484tawF9G3sY/Z57tjtrfpC5jvhOix/Q8339yOOxXLMPqAoKf/cVzMV9xZfk/5OWeS9tjpxrEMJL7p657Od9NfbRjcNuFjwdQOGG2c1UeueaEPx9wOzzrM2YeTn72HDw6cGVf/7cCxTlaCxdkGTHPv7NojFTH51fgqvp5fx/f9+T8ZP/bXf+zu5G92PR00/aUf/svxg//Jn4+vIEvRyJZLvb1plLLzCdnxrN4ZyhyORbjcDQLF7KMCb71FRw5IlzaNUnWjlbuXSqvJGO2rqxuERNgHWWCWoKX8qCoXMzXbElkqhQzDnc6gDEoPkSXcok+OI5M+monLu4t880BA6arE6xqK68hh0EB6v0zSF4mJx7KdYamUk8yKLsBhlq99w32d6+OEveG+HjcGsXR2N03VASVwto8lI3rnDdjA7qEIVblVm8FGzTdoZDXIw/F1zldN37rItud7ABtYxQzMyqVU6XSk/CYJk0kxdlmoBn0ANq7sg+cT+0D1YjVPP4fQJyOwusBVcbUPnI97Nzu/Sp/eWjg8aEgdqey1oZirQrwEtjbsg90yD9xglK7+wEwP/sA+hl2F7FcfmKEYAe2jdpj2SQ/MkKSk6Rv9QWyuUQPRFnBvWrjpNK/VoCIsQdaUNfhIDg3pOAVAWeW6XPFCWqzt65EclvWU94T9iK/n1/Hnfug/jh//1o/He19PH8/92F/70fhrf/WH4xs/43vIRWHcwuVufY8L94GMkE05FYLB1JpPg65DzBCxqZNY+hjHQKSlyslMdG4c629YTo4NLUG4J2XjxtE2ldmNS48a8EiC6VPfhOVu/swLG3tB9imz4/+W09G3FvNxT9cRBcsgj9XTM3fYSMWJc6ejlaIF32uypQ9tXvWB2CW8mKMGBjTpKDcJwoYE6YoNMZohN7PXBGRv35w767PTRyqPEGyQfQTYR/2gbKDRFxRMacMp0dcWMfrAXsAzfchRSNkA38OGe9KH6KjRcqCi+4NJuMHWgUv7CNURBKaBOUZteoVZaYhd9oGKFX+VfE7gd+7oCwqccwm4SfSljqb1Vxhc7vwVJnPVp7XRx9ojkECwgYgguxjiIwobrPTtQxFIn7OPhQ1SUtdRzTfJT1n7UEEbTLaHDsAG66d1vMlrbPYUU73qchZidrokWXH/5am97TDU1pXk69D7D/3ID8VPfOtb8d7X05Wmv/6tn4j46z9OUe0SoDoEDGe3TyzAZt3e6o1ZATlukKkkXJmlJX0rUIt9VHuMo2wZMhV04FjZYIpKwTyfBD8tEpemb83c0nkKfUhLSLQPPstWlWBd5JP0AY6oN32DPkD2Wr1IWqJooibjQCPMAZXVS1DLTZ610dR2IZWciWIczWFokzE3TIKDVqFCcIlBBQ7D5SnTUsGE4E+cDmbN7q3FpA9pmFT/Y+lDfaBThOpFpy/SGVdvFVQOgC7qj0czQfsQnWOAw03VXInd2kfiGvk8sQ8k0PqDsl/Uw9Y+8po07bl9KL9iH+TkjL8SbKC/Kv8i9nHlr1AfYCf8UMQ0wKqG57JfGQbDcaOfXTBiv/wEItkHVKM10G32EayHvJd0FQ53Td9kH8YfBNG3sQ8kCKDTqswpFm7qjy4q8RGsI8KnOicRQuFqNuyG+s4Uy2hYK3uTADblN+XeIqXLYH2fc8Zf+9Zfi6/n1/He19OVppiP/59wwUweMiROXzhadlkzPaIbg4wZJJ0feGKAgFmjMqBbygfnymmfZC+UtSzqasPPqfC7ykeMlY4qFn1nTZTIr2TN63tlG+yIYFjRh4EnNdiWIWXWDMA/bfqWRaaSHFo5AGyk3LipGjeGCTqqo8GiZYYYUjp6Vi/qIFU0a1Mp+lzDPcugBIy9Da7qRYkj6IFlgIkAHoHhW8eLX2iwHRxodPo4WGkZKNKXOo9NJWcmTYU/aWqFDSZAR0ISw1qaqkkfAfqwTd8KNtOYSvRd2AduJNKATvaB/urMPhp9F/YBmAzAZPoDMqSNvwqxD8GGa/rGyN76q3lhH+CzWahiH4C5ACxKMYH45g0G7ffEPtQfnNkHaMnbR3+67dQ+iL7CHwXEah+CSYSO2keEwfhxT5OCtqcYHJw4p/zOgSJg9xhfvG1soYneBguPiTWCjXj8KyAgjyyorHtfa5LyPter/u25py/D36uacu/+9BVLfF7fZtd3tM6//Yh+a4pe9FDEuPmnZ4k1Ed04+a+X0Pkq+W02VL9PzDZunu0nl/NtV7h1dzt03PilZhyWaPezt91A33Q2rSrdWWQ8f2/agc9wshW+kQ0Goc+ASMbe5ZNWGRRrvef1sqApy4RR2QplfFX81KOGVUnC7I2ajLEiEl0ZWKWuOFWb7CrbilG0ZEYA5W4swWMTpX2L6u7pB1iieMTgWUrvSZ8eNWBj7ww6CqH5oNQbVQWzTXYBMsCjkNy+5KgBMzlt+l5ZD5JcfzL8QnKc1RkSVjVV01GIHn/VkRwkx91QV1JO+7LgD7CBpXcsZxPIRAZZAVjDABsNf8JupbM7+wB9yFEDPRQRS+nRdkakqZK7wcVGoq+wwSVzkMHCBuiIXpUBmKSb7hpFEx576VEIHsmp1kt8JQP2B2Hsd+yDiKbME/vASpt5KKIbww37IPrcj6tkiM3XZB+gc31VAckeP7UaBZgs+spWSgdoH3jLVGfQPsh+XYQJ8wE21mSn9gHjFBvOPthWvH2Ygc0+SB9pK8YfIDaCbgp9wC/5iNkKMqTzNS4xtOzR7wsawQ3iDdiWWJx9J1aEyQJkXfD3VSpPWekivmoFe7wplr3n9fzxHDjtfhSCZ60PyOD7VgYxL03f4YGqmemEzwIlNFHmT3sDuit3VwkS3ke0PieRIkcDQUFD0TeBvnW0d930nUHNlj6OJ3sTJb8cjnVUQKWm71F84ibgG+5Hc7Kqj2XUdfwl9C2h5c1e7l7ulkvvsMkDBF3VoqvoCL5bUzUeB0HAZjtTufQegg1LX/bGsX3oTd/0DUFc0odOUekjlYey0ZpaIdBwR6Okj5UMqT5iyHwdG+0i+yje2vH1zj4IdIAXPYqLMPbr7YM+xT4C5rn7UATTZ2+BP3D04Y8lcKdAF45HrD8w+oC4U/URURsg2y80fQdjo+EP7HdxsrWP9Ad4E4KKg9hMjCbQF8Y+ouxkSx/IfH239nH8cehAtY/AQPes6TuM/crnmT6AD5YpstttxuLUyVnWUOzWuicN9wOPIxHPtQbRkn5FF+FkmN5svnzOjG7L73g9X2lq3gnCXw1+ZkWh9Kj0KEDEhAqOqWxEgIAmYg1BBD0ulLHhp2bNQZnRnaZvmg6+75ooaz7f9E1ZJGyovcmzZIAFAazkFE0jyGHMWhf5rAZ5yIwgk24Ch+7hEV26VaXSbEQMkoiuYKU3VZsmypTUZALQj0XAfGzU3FSN9IlTJKGCPsAR4DAyBXE27uZ103fhhipMJw9FaIx33lRd2KgfFyZ9UzVWvaSSg0LA68w+aD7T9E27vNoHBH4GBsraqX0QfWwfvamam75t1UtESvYhG6o2ffcfLx088VCEbDqt3LHsUpJSns8/FGHtg6rgYB/op7omec9Q+yB/APeaP+Cmb6pYXD0UEYP4JH3gwEB+xT4o0D1r+o6NEE7sYwTNp6QUzUE2s/3XAJwfimh8jOiySt5MwKQN7bUEB9OcMJq9HTEJv2UbdGu8f/T08kpTftdAZ9c0ipnbtALi8HEkyFrEG5gJVmUjncrgkTUfRNVHWYSz5vOmbyIAvm+bKAfSpxkAMDcCvrumbygWRQ7zYsPu0swiIDOCbHLRsntzbkMqkEnigMCSAk7MIzBby/km84tBVy4LTZRIH+pBcHmr6RuwMQAbXajVcL8CcmfACDmKQUL0sSoWOd9F03cUFpt9iMoBQmwfUcFPTdOz5rJfwR9lzdBk3OgLvs7so9nvxj6Q3zP7QC52qiRhBfgD8Vch9rFp+ra7BdoHYKO/SbuwgRuvfyiiJkx/BbKfRBParwgGdFAqmhv7vWkf1n439oGknNkH+qsz+0B+T5wi2QdUl4hfGDgIRKKPEPsAf0UBMdmv6GCnj1FBT/N/I2AN1ZHfT7kSauQMActU20IRBL7KYtdwr/rd4wUHTqBpBUL0FL3IgKdbEnnf6+lK0+24brhb7x8Vfkdd74+Px3VXbZ/q/fa/3lqX3xE6H0/d/uLj3om9bxv63lsGxo/Om+M4+Lgx3ysIvFLHvHtz3Lx3ug4EoV9qI5IgjyuSPRmhstg7Xk8HTZhV1CdEuaucvEqZWN0Y0vTtZoeKG1b1cjWIOqsMb5ootZy8otcsJ68IvZdSMfOy7C5SoaTamyhHjKn9QlCb1fo9HYUgv3oUwplm0Qd8U6l311Stx1WGX3hNhNd4yX5gFWxV7rQurk2USVNlDnTUEJxZ8cLRHER76ADpy1J+ZavuKASxiDRhcea06TuI6G4fAfYBDffbpm/icwq/rPKlcz0F2D0UoecFeCS38jysVDX7IH8F1Y2k68I+sJJ1Zh+gB28fO39wJizwV4TFOw9FBACiVHPpr5ZJ3fFX9FAE6MP6A7ORmRJPq840+9V+0wv7SMa7mVv7QBvBcpTYRwQfX2/tg+aLUKVjhafs19tHzYVVK2MfERGjKlNYqUJ/Fc1+h/dXE7Uhr3AIxvMI0JHxp1rVZSHUd67qbodR1YyrWyXXqg4tUjabN7oLulfjUQZkM6CjuXRETL7v9fzxXF6zPscKQ1hx9HTMaROlagEVIhVmaqLEJ44WTYdGTEcslv+SPglCEDCNXdzAYCOv4mVtOtumbzVMOQpBAKqhF32THEIccqG6N/Dpm/bkno2OWAZTPinQoVm43E2OF0vv63M6+lDnpSumT1RkmqpxoymdnzV9lxCyZG2w0TAp2ChdA/7WQxHzQh8zmnNqDCPEVR+ko5JBO4rDkTv7iJv2sebZ2gfK3umoGVdjjuxDxPy6pu8lt5L9pb9q9mtJBn9woo+MNIw+YmzsV/TR7Hd2+4DdGI93hsoAdCVKD1wkKxCTT8dELKnzkpvSdxwXQd8QtUhsfDbPp/RBTEH0adP3EPvF6Ff0URkDBRBNH9Z+RR+YuK0dBDCOEGs6cpjUeyhnFAjgCm5RPFdHjpBQoz5A9t3epscL2MepDMK0aCwMHXNQ+4KrvXzh68WvHOBsLSAzWuGDPqm1lKRb7xK0yHmiLUAHCmSnNZ/7sWQH2PSd85XThGHMJ36fixY2XJ4Pej4goMLgstJDqbJEsZEbQQ6HpmrilwMwfVQ66YONwL05l7OCSWyrT9IGVggZwQgWI5gRXTd9L2Rg5YCCJNxbgZbEYuNXKxviFCmD7lUvGgbIbU2jSDToiJuqa1PGjaA1GYsO1D7Up2vD/TQyaAIE++CHDjo2SB87JyXYaPYBsvf0aWVD9CEPRSA2eD6xD3HgV03fK6jdPhRBkZosIZjEoJvnM/YBNF3ahylibO0DPMKpfTh/EMY+cjnf9L21jzVSjLo/FHHIgPyBeSgigxm2laby2bFh/cEE+sBnu4ciItR+ravz9uESaZiv4gyWX5YDBu+ra24OSAzuU/+cUJTrGnDvTtP3qACMoi60X2uCEUbnj+mk6Xt0GeA42pze8XpZpekIkoJALJFpQFZgszX5jlmzBMvYVJ3g1egWg5H8biJ3qCCk/zOBMRFAZE6gD5pGx9ok0PgXMxLOw4IYnkAio8MCoBo9vS5GrpooVQ+XTZQojmRjEl0jhL6zJkrkVzMKMHD02U4PRVMZj+cXqkqHwV02fYNuWtaMPKJu0JGnjnYPRYDsF51UiVAwDoI43UJ9HHQRXlCYyAllncBvCH1zCw2+0n7RkUtTdWb1A+gbQcafO3Bs6KuNiYLHxm8ERxdiH5hJi+xtU3UMY79N44f9in1Y+1VDF32c2QfqA9VLNxdNNeOpfQTraGsfjT4rFraPKfYBRJN9zLnxB2IfZ/7qzD7QX919KAIUu4KLmdSLPiaJii/Cc/Gu86GPTbVum6/xngJigysIPoCsoMIG+CnXWG7t7aY+1pdKoKpqhPJ1OrKnDR9wveJ4Dq8P5OBLX+qQXjvu7nV3ru9g0X/HXG+ty0+df/tf39a6dKWQnwIy+AhZ7cT0zZ8Z8Yt/bcTP+4cf35+5fuC3RPyJ33hr6M/+6d8Vv/5X/23xT/xdvzB+9k//rqeW+eEf/4n4V773z8T/9Hf84aiqA18Y63zPtyL+8T8x4lf/wFfxPU/+O7g/+s2I3/PzI/7F/5IRWFt3yr2jK4yC/ap/uPnGHB/mB1/29Bxk7HUwwE2UWJU5baLUUirIyTVVr3K3//GImJDNmneIZBPlxOMvpQ9SpqRr0FFI0aflcyzBI12c9SZNxG8leZj7NRhStgXZGJaTlz70KC6gWoZZ0aaJksurvamaqnn4I236htIwZuDaVK3VvFbuAWysT+1F0ffL1JEcCPis6Ruw2I9CsOkRiCbAgH0s+qAKWz8F+9g5FgPxWq03VV/aB5bFz+xjgD6u7CP5vbAPqr6JfZDObzR9L8iOodBlHGJW3o6/BvMLx0F9OgZC1zjYx+Cj9CkjudrJ1Z5L+4huv+PKPuD7hMZ3so/o2LAyEPGe2scSWzu+qSpXpP2ivxL7EH9Qx2Rd5VSBXJUbsBW238IslDlZBiMIi2m/v/jXRvz8f+z5gCki4r/wj0X8rf9kx1/azDLVEf/Dv++XxK/7+37J0wFTRMTP/u7vil/39/6S+J//o383xUza+L7W/Uf+dMR/7U+PpwOmiEfA9Y/8qYj/0fdK9a2tCzqnilZhyNHHp1oEpXe/Xvxvz6HBZakygTpPjuUCd8cYWOI9PrksGVCmK8fijhrySRg5B52jDJePQoLpg6Am8NZgA675kBZ+EVtyIsctI8owFiBmtGE5to6/8GaVu8shVMm3vwfroA8DLBK00FcijzmxWi/8LmfXBtZnOuhDwTWsYyNZGw0IZCAP+irgwPf8NH3AhknHDlJ2xveUbPWxnGcz3NrOcDMu+xDZK17smdcgCFn7CJa9k0HaRwwaR/YBmBiyrqUPm1emsY8NNhwmk6mB6zr6CFZAn9EH9oXNjT4QG9Z+WQ2MF9X4iX2k/RbRUxihAOvKPiKa/epmkvYRO/uIog+DBtPSgCJN1M3Y+ytsqrb0YUvDAyNbf6U+G+DS9AG+rOsjYL7etEx9p7J/1HyCjb/pvxKvun7eP5x213xsQnfGf/uX/8LXrRMR/8jf+p8vPhY2UlaFg1/9517/T9H+yh9EHaE+tOmbjwC9HYHeQvzQBwVMEa945QD377DTtE3fuvnAJybaA4CaWSTNp9aKxjCKhvxb1G/RuDQ5a5nM4rF6PRZ9BTzO6rmpeqS3SWeSS0ySASZ2mJWSc4B0hDdglLlrqp4b+iL9BMVNA8EbMF8wTWQEzAhhA7IpzKSx6Zv00ZM+lj0Y2nKo2GBL9OHmiVWW6LRgsWMAXTxfcARDWXOQ7PV1D5w1A33mctjADXNX5Wv2gZUDwUaTQdIH+kDyBk6t/DodzQ19aB+wkU+mBTFJQeOE+dBw0T4MNrQSy08yqn0o/jo2Tu2D5juxD8DGqX2U1HizuLKPhRjARrffNTPS17GhyQP5K9RHlUy6v0J9QKSjD0V0+wV+QQRkH2C0rcpH86HjF/sIsY85YRTYR0TET/+58dorRRWltyXHccjrF/znvufV6/zs7/6uCIeNgcFMxN/8Y69e6lGlAp0vvaNPrHuoXmdH4f1kxrcfEzk93dNEG3+Ak4qg763pGzMBSTBxn9RMIDO3MUDouJPIUzk4Ko020nnZYFUMszZMLhVj2bo/ARGZXQc4LNx4yz0PHgZ0QchYhjvqXm68y9nmfNIsaLJm3/QNWTPsZZj5FH3gTEY9VQIeq5wx8IjHFp0++qkoBvmNKt1TcA6y3+hISxEYkC/nZMQCATTLgKtLEEAvfdBGzbJ3MtCL7CP59dhgHYl9LH6l6XuArdR+OZqoiDxMNlbAAdjA6lLN55q+BXSyWSxZYXUJaSF+F2GgIwxM6V8hgMoF4W90HXX8CclxZh87f2DsA/k9sw/B5Jl9pD42Dff4KoFdUzVWvRIvZ/7qzD7QX8G6u3+FwO0lWlUgfUAc5LCRMpgh/qBKV1v7MNjYmOyLrkYz7Slve405c71d8/XbLQbBb5SvRpli/nklA4sD8cHveb38lQNf8rori7eW2V2+PibA/byeud5al9/2Or9H4Fuz8W0137h161WLfFvx6+Z7Yzy/9f59a7on/P8t+p5oGv4wMx83773walXKzb23v+blnXnzd+36IGW9/HgOy7vHuXSVu4EvzD6O4J4qQCHRLh6FRH2ukZQttHL3GlVNlHrUoKqobAt1gVUaOHeF5k2s9rSjEJVB0h5UYcNh7riF6GvHQXr8xWXM1kSJmXrTEVfh8lFnWLfRdwzEMvtSsvZP4D8qyvwKa6usq9VYlAUcB/WjR9aRZv6ESahozlq+8LL4zVRIKndNRxPwMtk+QA+n9jGA3yv7QPrO7AMw2ewDFsG2Jyd7JAabvsk+Auxjgj4IG8JvkjCFX3dUuGuqdjoy+pBeDrSTU/vItQobe/vI8mWwP9jYxwB9XNkH8ruzD6hauYZ7fSgibQFUjEeFCxvGrQEOS2H0eoCdv5r8apoCFvtsxEYQfVz1WVXTmq2U+ZivLHyALMaZfRhsOPt4zZW9PCMSp3xs+pZrlYyoAT3AfN50vUNYk4+g55yPPuYoO8qiH/nxYJxjcRCZ+oDrZcdzc4Dz5NK7OlnsAzmwEXQ+vJIAOmoY7Fjgx7WJHSDHcjIqDGkB+ZKYZeNAo6lP9zIyCazwXSOwGG4CFQACLRSoRRnucnZkQLAJLKezk33SJUEIBANEXwY1SJe+X4adbOcX9EFB14k+NFMUfaxx/R/d7QFRbyRFTPC6WpIe+HkigwqWg3DfXgRnZL9r+s6NdyJ98II3i43o9kEYG0Kf8ov2u8fkwgbGnUwfHvPME38AeBEPXTkL2m+npY6/WEn6ssN6QnEIXox9xLl9LNnnJnrHPvLWbPaR9M363NMX7aTL2kf0pMT5qyCdd/tF2Xf7NdiQxIODsnUHnogbRh/RFMz2MUpqSwxb+4CgG4/giD70B3lctbEPg40mg9des/iw7S5vudSSEchZ7e2trtNG+rbuE03fhL+PCZgiXlppGpgVDLFs4Kewy1kaCDeiAivNmimbbJnRUshswsc359KF2VpmMmzAquByRljZWMytdQdlbK7qteSCPquAxRbJ8zGIcIO2Td/kxHhd/LOrep01facSYRxuYpRFQqCDm6tWlVAH+7cWlwPfvkqA0mB9rLywkXTB8gPoIn4Bi/qYOtMHrxJY9zIpwKyZ7UM3ImQDszBtEGV+mRbml5ta+dHmZb8gBDSTnK8CK2oyhowVK7DlD3CzLlpcZQOrSs0+epmF6UP7iEF62NpHXhf2Yem7YR+NPtEHBJyIyWYf6K9W4ob+CvUBdsJN37MzN6vhme0X/UDhEIOTZh9AE1f3xD7ATtpDEYtPcIokglFDmn3kfGAfAQMTGxHqDyKMfaTOIalP+tg+3uRK/VXy1QD4RtdInADWUFRvuBg+aJJrHEtk6jC83ravFYBEn7H7/tfzlSZKDkwIiPsX21aOrGLRqk48BNwyowBnDEKtaHWkvfER02i0RqyF2VipFLtWPWuiRH5XsLfujTJmzFoumygzwpob+upo4bLpO33FAH5FH0HFrNIHgDz5pXQTgpVjwsomixYMPEtLspcOpKk8Us+aK1DsVS8jVJB9BARdIfQhpiNZKwLh+9VblenfQgI9ePo4WNEHegaqMJuqA/gVfQA2Ajepxi/QNzb2ATwS/obYx9KHrWyQVCMAGwHYICufjA0OKCcStrcPquRcPxRxaR+Ovp190I4O9gHYKHu791AERvbWX53ZB/orU74j+0B9ABZtor8InEAs2a9UXdP2TNP3zj4GafzcPgCTbB8IqKWPspU8Fguxj0Zfh3OA7F9/ycMitDG88SUVnC569YqvWQpkKnsO2ZHx4/ZhjAiwraL1rbTw7PX6FzO89rqrp48KK7+Tr7dG3Vvr8lPn3/7Xp87f/voIGdz1Bdu9ddwc93m166N2/y99jS/B2pTP97+eD5ow8RPCKyPGijBn9lhOpqOpzAiqSIq9Elj+7W9R9dF/r+6vcjJmT3LUkPTJAQ6WDseMLPWaJkr7ltd2VIjnvpB5meOqPGrATIkmlOOgCEq2PL9Y7uam1qKPj7/0/TJLR3kUF5BVKKi5Yn7cqqxngI7yqCEqY+lHDV0GehSX+mjHQaNhoyoidVOP4oo+fccON32nPmzTd6SsMhOfsaGvsBEGk1jhwayt86tHhc2UhV9nv6APPIoDrevxF/mDgsHePmiT3T8UsbUPrESf2QdWsq7sg+x3Yx+YMU9jHwH2kcdfxj4CCCF/cOKv0n7P/FXwUSHDno/SQecK3t1DEaUN7mFq/WVX9gFfmj9w9iFGtbOPCO5L3doHEoHlRrGPNwsG7XGUlD7f6KJQo4rEvO4broUVQbKjxZc7ueCSZv04qnoa4Is/Kih//t+eG0UtN/LVmTcLaxL+cGMDsQaerwfMUyVuduC9SXF4UumocCad6dYmlrt903cGNYg2OZMF32Tomx2T1FQ9yICWo3FBkm+456CL9VEgTn7HiT5oEzD6gM3RN1GuT8YG6ipFsIqtdLSnx0EVqKnSW9P3xE9nrAsTs2GDMbnmWfQ5frHEXJ+dPlJ5KBvbpu/ExpqvH89VL+CJPtLXGH0gcWsTIzbK9loTvjlrpScVxT7WKG+/xj6WP5Cj+RBscNBg7COZUx2xfSR96Q8cffhjeVJW/BXRNy78Ve0HW3+V+tg9FKHnmzM6Xhaug4Z1vKQvJlB2+8jDkgv7iJv2AV8wmLH2kWOntw9KBCcd03d/AP4Kg/cGIQlw3uDqdolrvG01JWNe+Kz/eMvjuWJnLpbwyBgVHE72mvDsG8s/4nrhe5pKsUn77ABEgFLTd0Pl7IZEmdH6xk2Uj2EbYKlzArp6UzXSV7USx1ynr4ZRhF2xB9AkaW5WVNZ8G/omZ9JMU0SmYliMQSkf6/qm6uiWBI0Evqn6uokyCZCM7bzpewYGxlRhQuaw6XtgoFtsVNYMQSNslDywbvJ8jr7SCzdvclYfskSKd8J8AYkA3CMQkUPbNFVjlQXsJCsaJmtG+8Bm75gs+17ZAPugykZ0+gwMlDU2X7EPos80GZM/4KZvLtGwv8IKE88Xht8I/+NBsj9t+l6VDQh2umCiZC+bSW+qFvtQ40+du4ciomipYWyqAwhU+6D54F7zB9z0XcGb2IeYI893Yh9oYNPYhyTmVw9FEEGoIrSP1Ee87WX90NsHBrWEyI/2utdfLVka5cex348DRHWUK8wAXc4ZK6DP+OoDYqfnK00oGdmEtNSZmVvLJtHxHiOx0QsjyqgMKQ18IHjHBX0T6IOq0kD60MhGEHMSEXX6oFiU9CVXTB42fSOIjoG26RsDtSjDNeUiykpJH61pdP21MjfawcCQ0L3tm6qFPk1aBtJUM/asuRxuoNZ3nfRQsSj6WCyUvGgMgo78uOmbqjGTnsRjVvcsfbA/jI19rKwedGTLDksfwFzPmiEBSFVKBE3ggKQDsHHnoYimYLQPpE+5mFtRBaH3tKl6pux3Td+BOAQgAFzAfmdiA/0V6SMu7AODYJC9ZsVlvyIY0EFJA/QxA+xX7AM3PSkndPs19oH6AHatfQDRp/aB/J7ZB2ofeCz6jH3QkwP4XewD/BUFxCH2sfNXqA/a+N/w2sr5bS9yA2SEahhvtRba5e5VAkQUf3e2BftujPiof0XlhZWmG9R+ED/f/tddcN4dd1fQbz3u8/q461Pn/9m67p6cvN0Jy8n1gWD5dsLzt37kXfj84R//iVdPt5+DAfOjLy+h1BzfZdZw+njre+94vfifUcHqWgXm1UQ5B0T3WY7C8tsqJ0dkJJoNekcZDrJfzIrsP+DXlqiSKjeNHiVXrJyYJko9/sqjEFwO6YuA+VRewDeWerdNo/0dQHVJTX0vgipxj+SsKnd6biSNvVgWxUrhZZNxwB9JBKUDbqouHVU2iOeMUgWLooXpiw190PQdRDRJ67ypetP0nfOFnjM1lS+dC9L4yIHo4pF4JLfyLaxUkT7miaNS+xhgH+Yo5NI+QA+veSiChRXF784+sNJh/QHryPqrUf6q2+/OXxVdzK97/1JVExt97XSzdED+CnRU9mv0IVVspOnUPmKoKVzYBz+AcP1QxLl9sPrPHoo4/qdA3u0j6gRh2cqthyJ2/mqWRtAGIyLiL/6+eNX1F38/l/1Ezou+3/Yf/cevWyci/pU//P2RFdcUOO6/j6//3s979VLxe34BHs/xnhIoe5Rzst9loJCcdO9joqeXxZZgUwzdqybKY6TpiEVBP0ZhkyfOZ4Q15ROU05uqI+40fWsde8LnLkhqx5AQdFHdGxxLBV1YTp7EJzdVD/40IhhJvmmipHK3BCZYel+fZ03Gx4LaYEufKYJJn9umb9iQ9vw+2fQt6q0NlY8aYkScNn1DoNH55Qg2IR5In3kowjTcN08u9oGYoHeC7exDQSL2UfPpO4BO7CP29qHYuPNQBH2KfRQ2Iu0Y+bT+QHRkSIaNFeVm9DHFPpw+ABtNH7vsBvFy/Ko3eDsdMS0Nf2S/HRveHzTFRbOPVBEft5w/FCHCEJWv75SY5U+H2C9Gv+KvIJjCo5ztQxFn/oo2fH5zePLxfb/x8flz/+F46vrWj0T86PfF+BO/AeRcvC1JLvr+6d/6H0RExD/xd/7C59aJR4Xpt/3xH4zf8P/+j0R+wvCx3D//yx9+5x/4s08vFT/6XY+g61/9ZYCD0UDebHVKsE+6zDsQI697pP/3vV4WNGUGVYaMWen6rP6jlQ0FfIcscXIW+QA+ND0efmuqzid/r/lC5guYr+alfo30nkLfwTBW0SKC6MooGOThBu4avBd42j3MbnS+whAlX22+dLJX8/Vxlr6wPxViDrWc8aY6h3tb+tp8RsyNPpkPApJL2ccN+oBhj41rmbb5FC8nutxAgy/cLC7nM/Rd4fkEG52+Z+abtzDk54Nb4C7u6PyW/caOPll3Zx87bBzp9aX9rjT81H4rgSf7uDufk5Wjz+G5zeex8Uhe7/gDYWRDX8534rNbwLT+0+CP5sME+Sd/JOYf/w0x/n//q6xmBdBPskIcVCmscNV+C+xGxD/9b/7B+KeO4Gls1+CHBPCe68WLOWNMpm/OiH/+l0f8xl8O88Wq+Ayyc1avH2eN0AEhQAa077IfxYTi66+/7gp8p+vFp5hl+xkbU9ZczhuqSgJ8jNyXMa8oE3GFcm4E4BIQuXPTtz7xcdH0vRRY/0HAQnoqmwTCMjQOMhDbRHmSNb+2iTLBKDrSrDkjfOS3Zc0QqAlrmjUXTYcshjoiyKQBGz2AQH5H+uLAYFqGEX0p+yat1EHpWujDUjFVIhSMtfBV0zce8zJ94snRPgCLVFXKzM1Cgy+0j6jvePSLR5IhOiqGooRu6YP9Unwm8Zs4hB+hfUCwcGofmEEZIDSNHzhEWpCmtJXNRtP9wYA8kAMDwqKzD9RHXNiH6GhrH0jfmX00fwB6AaLJPix94KPWvTN/1SEeMxPuQx8wsNsHZ2nU9A36wMBQcxHSgVwWfxBo9gQZA/dF/yA8dBxc2zlhF4OfwGDG2wLhWTdRAsKQNYq+mX8vflC+zscWDubGLlHQJ7alyVcUToZV5vtfL+5p+il1zTced5f/tx73eX3c9anz/+xdd3Q0b477qXp9J+D5jo6Gv3efrS8PhO17or7wvXn7t5tg5u66fbbbd9/zevE/o0LRLlSNTpsoZ1Q2e9ZEOStj7U2ekDJl8nFE97Fp+s55bjS1zqrOABd01IC5X1MhZVuQjYVpap3Q1HrM9EwT5Rj4vTdVUzUPf7RpoqxhvomSqnlD+BVsrE/MvPo/2inNgly3Py5p+g6A0wyhT5paydpBH1Dex4Zj934Z31Rt9AHYWDov/Il9jKZg0NEN+4DM8NQ+ABvePuChg6WPM/uIZb8h9DHsq+J00fSNWflZ0zdUZE+bvoVUpg+aqsFPTR1J1U6u9jR9THgIJJFxwz5AB/xQxIl9yNHK1j6UjTP7IPo29gEVyO0/ugsFgFv+aoI+zvxVgZww2fzV9A9FePvd2MexLjW5x3w0Hie2oaeVqlvN+L2cRQjU8Jxfiz60W3oAAvzBGt702/bfrg++BzJoNlgy1cZ8rEppmXWerEG6XC06aqvJe9nHnMbQ3/l6xXuasGnUv1DMboRDDCRCNlZWLHfXR3kCOgpBA0ZDx+MqdggJLFNO1oCIHFEgOdPYI5a7xzHPhE+m5fzNuUIAiAA/KdDJYnJtvJdN3xM/lT5lTenr4HVN1Uwf6/y06RsCDTeMdJTHw0JfwOfagDdHDR4vennn4LDhZMAjMztg/Dn7iBP7aOBA+sA+cj5HH9jHlrmTpu/hMUliS/vlo5Cmj8m0WH2UJ0e4qMaFFtGHYEPtA98TV/N1WjBYPrOPtbnHBTa4qXpvH8PabxuWfqDBj/zVmg8DaI8Ntl8VguijQ9zrY4p9OH2gP1B9BK/b8IK6JjwXgRQYHDwWxPBBp8nrigx4XzB+FwPE4GOoCoS04Z4x1o8AXVuMACFKH4yhoo8DxLGxI5FBA5ssS4HVtQwKVl0GM5xe3+96+T/YC0J9KAI0kQxB1rzuYSUHwIHxFWIQlUCJL0T21H+yaIFMBgMWKiFK1hxCFxZAYikL3axmD5ApjBAZZNZczlKbPE+zZsqM1mfPmh/ZSARF/pD+c28XO+tkI+mDn6IeLH2cNS8dYUMlV15g88TsK5iW0hGJGegDGWyzZqCPKp09a9bKhq0qBZFMG6ZmzTxfF6Cveok+kj6QAZJ1gg3CJMne0Qf2MTw2OCNkkVMlBw0X7UOwQZUcpCVx6OwX8Dfarb19ADa6fQy2D8BGbuTGPsprgHoD6DPYwJ4PxAZWWfhN2khfx4bkGBw353wgmAB9GGxgbyFV+QAbZL+oasUG7ZOMDaJPm7Bij40B65av45+2CmfSNfJ3aHvp3ccQmUqlGH6ryQiZd0TEFKC2ampTR2FjmDXU3nb6HRFkGKCP2KyhCUq9PR1xCnpb8nCV34n/ydX8FiTjSNizMSAm/K2ASgK/97xe+G/PBWUFPbqtSo466Bo1yuml4fISTQkEmBI4GvrIiWBDwokQdQC80gE/AQPkUQVhyYBStzSgAfTxEzoPcOQ3+mxZAQYIk0QvWRrQtZqqaaBk9cRjHVvksuBY0mfDd0+fOnIyuUgHiE3fuHEtWS0610aY2OkQJOeJASdYLWbN6Oxcw/22yRiuzJqjfFOJBUIFyppHoGNGQFfVS/gF4V42fVdsAfRNoM833J82fSdeYkMfwYp1gPKQjRWrSiOWg1z2K/hTHUWUwBF/fGtvH0TfOLcPWPfUPhAlZ/YBctm9Zf3OQxEZcGQsNdwwwuHabE/9FVSVmn0kv11HDETRB7hbh428N0P8QdYTaP9Y47TScPuhCMFfwNxaxWg0J4aMXLbOCYSAfIAuQQRiq0ILyV70CxhS+1UcogwSl25/flIG3RgQryBzWCNkjSYDCfLwngZn73m9vNJ0dd1l6O64u1HlW4/7vO5fnzr/vF57vUKX99V7b+S3O1xu0/cRm8vdSsBbj3vtNd7y3nzxb+fNcU/da9e8cee1170Z26gLnj7SNp8PmjALtUchq4QbVZKbWhWC46gRXE5GGXEafwgLqzPcJPYIWbWHaNGn7/xA4c/104p2gRiMioFdyI67DKpBnl8t8OCcS66YRPcmSqjCDcgC6KgB6auB1S8kMoDqIL/wE/kVw53Ir6NvQIWIZW+bWqVcW/MFVGl6bYb0scEG1qK5qgKPEiP+lj5sA+u0OgexUPmeqjMiQLYPxuSpfSx9bGTvdNTsI8A+qGelYwNuVdWM+GXY75qq6RF0omsCfWAfo2SAn4oN6w+u7CNQR6CPM/sYoI8z+2j+wNsH9YnME/tYPnMM4w8i2H6v/BXI/sJfYbM382v8VarB+CvcAmL5A9FH2i/IHn6hPrvmq6bv+/bR8ReDj8Ofa3jGRXqAw1WzblsDxs2I4y3XbKtMiwmi1N9TRavro3iHfWHyUeGc82i+FjtC+17YRVmvH0xd97FG23/vNH1H3tzamy8nfvnrBcdz6HQClIRGgC/sws8IfxRSskdFIEBxU6lP/1ZvDqyw9F6L4SaQtCMtGlhRE+UQ+mAToKf0JKhA+mZ9Fr+GvnxqCOmSo590sjyw5sOjwoANXelL1rhSbvSxps7+k0B+3fk1ywCPGmg++hvYh0AQN441IjdZOWqocrxgw+qorknWuuibIWoDbIgMCjCAsSH0Kb8dG5uTkAo0LH0oe96AbdM3bWIn+kD/rPqI4PnAPkgfoKutfcBn4U/oC/AHW/vAQC229rHGnT0UgesKa94+Au1XsWH8AUY/4q9qPgwKN/7qGNj9gdHHejIu9rbA9iv6aPaLTbwVWCE2tvYBWi28gJ0oNu7ax2YPmNs1Sn5rt/FvuY5mC+n7xXmibVUgxImCbfp2vBkM7TYut4aTgV/3ftN3D+hYBn5dxYtvrqf4QB3RB1wvOJ6T7Ywyo4AKQmUFWtnQrICiaCgxqPNUBed8VNngYAZTMjbgUhgtO5Gm0b7zfEILZaq96bsQOEl8miBQlSXHmWY8mq+MWp8MoioLONQ0XNXBEiXNx5lK9VLUJr99VBqemOqNkNyAjjY4gC7NmgOwwc3tSJ9v7C1nAvSB7FXVygatcQyYOlBkxfwifSIDDMpICCHz8WZGvQ8ig4BPdjbSgJ46qoBkRJdB2e9IPkNkX1VmxoarbKR99DKGtw8QS/nvs1cJlO1xY6roQ4Mtsl9mt5K5s4Z73GC06Xt25ub1AwGIQwxOmn2gXVIiI/YBdrJ99QkE5yQC2MzIzAN1DvYREc0+ErO9B7CakRmTmLRc2keKRdboorI2vX47HQCdECBY6Lb/GIMNz0i3PmCArinxTPKbfeAGk7gGB7B9jW3TtyQFKoMRKGcNmHxzPQdqw+qX9qZcb9lPvPv1glcO6EbNmQw+HVGObZTTAyDTjBO+YGQckDVHUBPlYw52CAkTjjiilnBNnrGhafJ3S18dLazv26ZvpGltPrBgmsLxJf2VOPLKfFKoqQ9663jSF0Xf0gdLSxMjoKmMUY8qypGDgWQAPdj6EyO1cmbNOQwb8hkblJXC96u3Kk/CRumBs6UBcwR9VzYKpuV4tam6hAnHTpTVK78DftrtAwVSb2nGLA1zdFdV4uZNjEgmMOey+oSsTWhVWKAPwAZW+dg+gF/V+pl9ABen9oEjp9jHMPaBiUCjL4qAUm/nd+kIEwHZQLByoULlTap8FOFF/RTqQ/xot99DBml7c+MP0E9VYIC5/al9ACbZPrACAQ3ZwfZBVSBrvx3OEd0+IgzGjzmm0jz3OiL74ZIUEDPPdTmWFtR3CtaMaxptjbkZ6G2wVAkyGEYGw8ig7WHBFzzMEijzwUhAW6297r4MrJw/4HqbRvC79H8cn9+5190K5d1xb63LT51/+1+fuvzOuNyG9h7jvt2ucX1v3hx3/949B3vXDX+JXyv909y7xfsr6Xu1DD4Yky8+nsNeiRVPZgkeRmZlYgdajKRb+bey310TJVVYRhyRcj9qiEULlbtbZTMHUrmb6BuB2Ri9qRXK3apkfXOupw9KwhFViTFHIbumaj2uIn6zfC4MY8U3b0HJFelbx0EBmTDSsvRBOjfvXwJsUPI+OjbCyECP4oo+fccON32nPk4abDG7mzOEvt5wHwaTdAwF1TfPrywSHZN81BCJRT0KoYcioJTPOpdj2oJB8FEITUGAuWUfoAO0lVP7wErWmX0M0MeVfUD1bWsfaW8dG4GYTPu98FdYST31V8Xnpb8CnSt4uak6SAfkryb4K/DZTR/2gZl4zj6w6lLlnm4f8P3SPpY+NvZBMoATCZYp+Fhj01N1BHIuYSDu1faDTymarNhWFysLY3Y/cv7FPTSURSbWOVZpSQZjpzeDU5XBYDkH6bKwRHjJJbTpm3knk8Zy9xA5f8D1suM5EDC/b4WNupcWaRaunqfzjDTzPNM+AOPOS9ePsLGX6SPfJOVu/syLGnsHgYf+qQ0JknxD8SAnC7eKvnTa8OKupAsBWMji4yp8Qmg5CXf8tZbv3lBlQL1OgQEiHgdVoKZCVR1hiXYN68dBUYmE3Bxy0zXYuuOgwkYY+kjlhj7T1GoabBt9sIkxfUYfchxk9QGbWNMH6MraRx4v8T3E31p2b78hl2uq5uMg2pTv2Efs7SPpS3+AdHVsaGO++qukj5KSE3+FJ0pJn9FH2u+FPma0e43fFSQ1+51B1O3sI+33wj7gk/Ci9rE+79iHDqQNDo5v4sI+luxDFzH+Spq+x06m8LnT0b7hmRNBSq5BfngPA79atzd9w2mW2L7HUF+XE/N903exww87bPx4kz1GNSCDY1wPQu/JQODXZbBrrv+A62WVJmqqXt8mCSainEfPjJYsUsMUGdd83IPTmijrx6QEfqQxR5HRHMOKPgE+07dv+s4zWdgwZjOu4CC5PogW6qmgQKgNlKyem4yXrJYDr9gcHD1G8amW0fjUpmqubACQqbJR2GD6eBgmEQPpCn8zqzZicEwfVzbI2aGngCVQvNTkDhkhOQIkOsPyGkdN1UDL0kHJYDYdkJnkfBV09yoay6DSNVAwYIObjHsyR/oguhC8hl+pbOAGvRpT+a3jwbpZKwy6RbLHfgyuMIk+0uGH8NubvumlrHNadkuMZw9FTMJNBSfGPhY20D4U9pOHJ0wGEKj2EcY+wtgH2W8UANU+xBzTS1zZBxoYPRSBQcpa1zR9J2ta6WFbOWv6xodKgkQPiTTYTOqKcLqTs8GVwa6VFa3LuZzfhyRYwKgH9IsyWN/t2+KPL5p8YUKBSRDJANZPGUjATnvsLFSm/c6i2+1HJAMSaq1l+z7f8XpxIzhnpSPtjRka8Au4lm/XyDggS4sIbKKs+aBBTyKiFt0GFIuiHJEK/KFzAAk2jR7r2qZvcU413ygCYEdAU8xNymRunE1KKRZARE3flDUPAG+nSxP9WqkozKCLjEFeJbA2aBNwZrBH9HUnoT777GZlk9g0Kpk0yH4MwYkoHmMLzIaY38JGOgctOyx9SGXDN1UP8H8SQeOFmzhg486bpZuC0T6QPuVibkUVhN6zpmrAxq7JM9A+AAhFH9pvyT7/CQ3QUf14wnxzw69rqnb0iWBAB/Vn0McEvAyxD9SHlBPIPkAUAbbS/RR+4ZvsD+4/FLG1D9Q+8EiVg/XHJAXtA78PsDeugmtA3O2X4cz6GOCrd83XWu1IR78NOFi28N2swffQ9U/gTZqqIfgIWk4KAk5H9Keu8/rzoOlqmreXATeb81okA7MGLUE2XesVjyznj7he1gj+QRHet811V1t3x92V51uP+7zeXpd3r09dfmdcuqm/17ifqteb29v1wPnC373qcpv6Jjl6pQBu/fIpGdyl88a9+YrfStluM+79jeUVjeBQGcFM3TRR5idG2XS8xJnfVdM3HnnRUQguB/RhFcw12dXnqsSs0qtrGu3lbpLNgE8p1zJ9lQVULgbnwwF0ZboAlTagZVXi8qghyve6Jkq1lX1TdekIs4V2FCKNvZXNsHh7k+coo2LF0c3zpupN03cspYeeMxFNBacbTa1JF2OSHoqAsr1vqt44AtXHgUNuqr5hHwg60MO9hyIu7AMz0iv7iAn0bexjfVWSQfbefsU+AuxjTtLByn8bvwmNC381g3TADbalo7Jf4692D0WoPpr9vsA+4Pv1QxFRwj1XOfiDE/soRrp9oD+wrQOFSQdnax+CP4txRzPQt/vXAKgsjnJ2ssJCDGFXbAF4owrVYKH3hxjAZqRSlRU5skGu9qQdJfmyRvZLsm/iahNjDYpmucYcHRv00EHyNnERCKw2Nk0ymCTnj7iePp4bC2yw0SSfjpEpn6Cc1lQdEXeavvWcBwGYYpYgCTfyNdWDLtxYB4AWgy4sJ0/iM8vdQ+gLJnmJYCT5pokSHOqixR0HrcCK/xFacGLAnmuibNnAtqkaj4NqozzvpMcmz/qzpS+bRulm6E3+V++VX9DHrM8tfeDTT5tawblz7Vg8OeFP6IthSLmKmNg+IueR4+udfSjozBFC2kec2EeBgz/FPpK+nE/sQ7DR7bdiAKbv4qGIVJwE7jt9TMGf0weqV/UREe2oS+0DEpot/tB+gRZvv0/YR1zYx0oIrT9gpRuVe3+1afpu/urQ+a2m7zEsnJs+huojGOMYw+W9bjOvafqm+DWCZG5tAWSfeE5Vzpx7OPsNtZkJ604v05syWANa878E+6jLugMxct6r5KXhz8h5iJwbJkX2FGBrRP0O19OVpkUoGlJEcAA++veXNn2TIBdQ1maGwAM5V1ZfwSqJtg081s35kD5+KgYb33vWPItks1w2jK8NJgLmCwYMoXEFlxEFMmhAl8pGzQc6kIzNN1Gapm/IFMgpUtaFj/XeaPpu9EFqFEPoW1kk0BfAL9AM0YBsLLUEswFVG+R3gHOgrL5+3JqqW1bvMjxzATYwg46Dpsumb04VyBFl4GfEvMtAWViFSdv0TZm00QfaLNrKFH0IJqsiwPcafRAwEV4Sh9ik3asOpAOJh+1DEXHzoYhQpfeqVy6r9oH0YYZ3ZR+NPtGHBlvpX7Yqf8w4Bvsr1IdsbOSviL7Iv7H9GtPXgEmwgfbxEIs0fQfjuRLVXcMzrmVwn/o3egNsBKzRHoDIIK/WsPJD+429PhKTqUp8sAHUKzzSSUHaJTC1AcIYXQYISSeDnkQaGbDwvc20/ZQx2YDyDtfzlSYMfkCodGG2trJ6jYxjRbJ85FKKGfhjH3keQtSIV4MoIg+dRTpyaaJcwLdZPRhty5prQXTK2ERZw7hMTwMpHZnJY7pdypoHLDtglOhBBEH/ICc1fePmUx79suk71/JN3yju1NHEmzyA3qQdJmuBYIpwOQzDaIsUNJBUwbmXjjRr3jYZU9Y86qdhyMIL7SPq+9r01raM9oGYbAqe4ekLsA+M/4g+KDEM+FHbaOShiIH0iT5inNvHCKBP7ANoWjpK4tMniD5C9LHxU0O/oChRH7HsQ6vMb/tQBNG0vmemv7GPnM/RVzgsHcUWlPRQBPir+ol5KOKq6RvxN6DpG/3UFFKcnYBvQvylNADjat/VfD3BLnELRt13Iajeum/H5uue/JM+EM/kXxQIvbF80VeBkDR957o6HTwcE3Njl8QQ/Hijy2NRkrPIIPGXLIHOh8jAbdoxHv/Wr5C6muvLJ/0UqDR1Kb/TdVc2d8fdZeGtx31e96+3todPXX5nXBorvte4n6rXW/vO99+n+sLDkLG59xzBL2NuPvO78Xb35u3fzi++rntp8pfj/cNA+ILjOUq6VUiQMmXyMWy5O0u9sypOp03fR2aD1RkMTt1RQzcgzLawamSaWlfJf5Xeo0qMmJFykyfTNCDK1qZqKtFileS0iXLmd22ipGqeCoZEUDrwTd9rHizlYvpJeRZVBTB56u+XkVI4VelAH1DVw+Og/n4ZrEYF8DmF36Kp1KZHKwd9gg3CIVYbtck4VobFLJ3aB2ZgZ/Yxgvk9sw+olm3tY9nwGKHkcVkesvKzpu+sOI3wTdWsI73V+R1ivyQsqG5wtYf0sexjMDS6U4cyF2DD24fBn2Dj0j6UjZ19NPs9sQ/0V0Sf+AMqN3qVFxs3/NUERrb+qrCoD0VY+sxOuWv6Xr/FIyLCUN5THW38pAih8eGGwRrc2sBrpL0lizih7B/oelAGxx+7DYJ6ZQ2qyIDNcPWqr6G61EJQyjlAznPGmIK/ORlvB67wWC6b6+WoOOMHwUFMPTZ//2znBcdzqHMNNSd7KQDoUlwdNWA5nh1Cq7Oi0I+Jl9xpo0YaVzk5ihby2geiKSASWuybc7WkKTJIBz2FliWDABnkQHG8sEg1VTv6lDWlr2cX3DQqT98hv7BhEp+qD9mAaWNAEeVTjjt9rHlgQ0J+Nzpi/dIXcg6sNjz+CpIBj1z1eKCPcMjYuH4oYjJI1D5S9q7pG+xjy5xv+tb9nI+/hD7cWIcECIuG3Fgv9NHs15Jc/kD1gcLa2Qd9ntgH6KrjD0QQaB9xbh9xYR9kv30Y6+iZpu+dP3D2q0IQf9Uh3vldgbNgo+kD/YHqg3QURZ/qA68N/jKYngixjc00sG385JWdW+xiANPxF7jsRHubNdFGHyWW8om4g7QHG6Kv4e1y4Ef+eDpdwkDMcbutxqUMKKlbM8oaoNaUQQt+lwya83q/6wWN4HKJ8NMYlnMIFmBlpWsc9hPNEiA48AGrq29Co982VddNookzilHRcazMaOT35mQxMkYRyIZJDYkD58O0BRgBsHOmOijQRHujrAESiqKpIl2uNFXwxNkDbJ6YpSFNEghRlSUK7K2pGtM0pCkd8woaetbcmowlq6cETpI4lzX3pmoRoGb1ptKJDY7ABtsEswvzsX1wE2V0fk3W7LL6CNHHsg/UBwpLdnJuqi5ZYMN9VmKb/RpsdBHAfFH+QCo5+QvARK96pQV0+0BTcH5KsIH2EcHY4CqGJF+KjRQpB6aIDa2KdH47Nij7D8aGbfqm3s1o2MhlJ/B7jGz461kQVT1cYNXsA2UgPqrmXeM2/JJMWX4TfqvJSK+udCGsxu3UG4gv/Xfe04qjCaxyfwP9jlrPm+AA8rB3CYNGfJKxy2BNSn4DGUHcE9YkSBbV4AMBSQvgTzGueOZoMCdksZANnsuAHMs7Xi945YBcEhnnBpd/5iONEGMoM5ksXLDwWqKaKBNzFBtpU3UEecdYDnDCfJvGNQ2wMErBhUUE1QsqUf/xR6aPI/ukD7Iw/P4wECAB9xajh1oKn3L0DcWt6ZsmZ0GnaHNz78uS8yQ9aKADT7+QgYAeZjckmBiBRw6avld+ChmZ0EdeJSMNccYYdCN9QAmSpbs32MfI7yB7DB5FR333iQ19NZxFNdv39rThKPvAJ/dKXRpcgDwwik9HbkSw1mq2wjrqma/oQ2wF6WrItX5qkQtB8JV9pM670jPgyNh2uGHCI9gK6iU3/Hr6D9sGOr+woVv7AH5ngxDLHvUBOip9lB9NfUDlw9tvESE5ExAI1QfnCxHjBs+++RrvGUBA1kcBR4cz2QI1fZPsRb8QiBHogC5+SKXGaQJ1Swa4h1Eg3mU+h9jWMU6DUEwKW3O92zvJzvr+RpuEiOUhD5GzwUF+aVWcL3+9sBFcrruE340K33rc53X/emsQfury4667urwz7pm5xo2fb8a9NWsfNt9byv6Z+d5y2bs6mlFPOr3FfIa6p9gfd+/Ny3HT3ptvuoa/Nz0tb8b7/XvTjpsvnu/uNU9wMD5ww3hx0IRlxCp3Y3WGm8TWmQn3ENWPs3+mVS3qOCijXTA+LCdjua5KqXWTj+L6qwUeaoKyLs0XzXNRQjcgC4B1qWwKddhBjABdoVWhCHo9QATTd9yk/gXR0Tqey3NwWNc2tc4qvTd+J+hjRhuV/IqDLJCLPjKrgEfZQfa7N/ZmzmF0TsU3kT3RZ7ABZ12tTE0vNASdQxHC24foqNlHgH1sHorgfr8ilemr5C0G0jVO6Bv5I3woIvWR9hukh7nBhtM5V5m44Z7t9759VOa/s4+w2NjZBzUPX9kH+iuVAdI367PZhwjmyl9hlYn5Nf4q1TA3/AJ9oAPyV6Cj0qX32WOsO6YJGu3D+QPVOfAbYG+W5mXTWdmUQANF6nDvcAXj1hpDbJWboE1ghT6nFBwh9NFRnPFDeAT9aLQ2drTsO/U2We3rB1PWnXFEuoJnOuI/9gyQeeJvIl4CaDEykNOlZERlADjo/7rAwgEcTaLC3vF6wT/Yu4QEjK97WVjlsiSXf9UIRcBRcsByN/zZHAdhE+WQoAI2gZMmSqJv1mfy6+ib/NmPGvZN39jYtmbtTdWDPqEqypuABFEYdNVGt9HH2jCH0QcgEoGqFWbxF7BGaYn6XoKDBd9w73RUV9IHsucXqEXKvGQfVgaIDRzX+DXY2JyElH1Y+hBr+n6ojknaxGg+o4/JtFh9YCCk+gBdWfvAcnypl+xjyb78gaMFdc46Yn9Q43pTdcdG2gert22oY+kIPnsfjerc+6uaD3S1wUZicgQJRl8+icnmqb8i+xV9qP1OsY/0j7yutQ/QauFF8Ef2u5dBRDR+w82HgazB0DyTwcKB+iE99kW/q9gYSWlgm0Dzf80Bzma/Dgi7t3qvccj7Tgbr16cPx7SAjmXg18Ukcb/GqQyczbR9dW2iLIPh7LzFApIFvdP1skpTy5pLwcgkNlGu1IObqnN35+AnSmGoEH74CEzdDGwN6JRRIH0BIBLnCtFbRd9FQy07gD4F4DyhT8/IozI3CkKLFmqihEi7N9yzM6n5NEtbm7tmkZGfmemALAbQ1bK+VlVig8usGSob/VFpoM9crVBCOto/Kk1N3zbb5EeHtbKhVQxu+h5JGMu+Gp1JBitonEAfBpfAnMPGiC4DrC6x7YXMV/bLvUtHlguyd/9Wl6jX3QJHun+VwL7pe8leG4BnsoJN31rZ4Pmc7NH5a9P3ZH3kuo4+3mBaUBtsH/hHajxW+uChiKQPk1IFPtgl2kfJCvdJYx84MIMfCGpBBmofa6wmLZg01KpiH7oGNZGXHLVpvkxmg0lyElHMi51T8OGwIWu4hudZA8FWGC8okiSFglojU1bvxo7C+0kxwpE87RvLyRbyb0HjKNDZ2ZsEZaFyRtUMkUELiGWfCcbBR1wvqzQFZ83pKOcUIKJD4MxNA4n113LP3ETZA2jYDkzTNzVR5nybaBloQv8Ii+WtLBYFOCKN+qPQzk2jiz44ioJ1p6MrDP6KcdIHbiTlyEX2URsmyYFThf5IKziqEBJ0M5Pt4vFtHS2osUbXg236VvxN3pjSuQIe1vd9UzXoY07PbwzwfwP4NWLDYyxr/KbpGwJK1LlG582Jheij2YqkFuveRPq4yrdtMra2QnAp+wBszA02uj/oTpbsI+nz2NCYBoAA9MEj6bmXnTV9s85V6S4btvaBmERicfMJ0Ufa3tz4A8YG6kDtQ22lYYN0PkmAFZIyNqgCYu2XsYE8oj4qYJuEcWSNbFqDTPVhoHICxUTeIgL0FqS3Cet2fpNHMdGHCzH+xUSw/JbraqpujeXDyGAYGZjgg4C3aa5v++4UGUR0f+D8M4hZgyRnM7ifRpMzyIDsHD9ljQ+4XlZp+pgA7zv3emvd39XPpx7f/rqryzvjnpnrji7vjvuper2l7J8Z99Y8vKEu522dz1v3Xi2SRotGWVq9wN/OG/Pt1rged0sCt9Z79l6vEu3XnTfmc9c9zX0RyN+S/T0drXsf6cZe3ggOWc/ETJisdEW5UE6GMuyAkVSxwShbtSjHLYuGLHdTNnbW9L3oE4VlsqX0QUk4oioxeDaQ9K1JBhyF6PtlqhSZWW9w9nkIWk/Oikel76ApqxDRG+6zlEuVsZI9nSCADKiSIIrzTdUBJfDChh4HccP9oY+LBlviF+mjsm2BaNdUvWS1dNT4NdgIg0ltsF06moDJok+OVmKIzvtR3CJB36ospykJmKojiH0MsA/QwbhrH5jxndnHAH2c2Qfa6JV9ACabfeASE/i19A2yFfeWdW6q3vur3qDsNjvxV2S/7K/0XyEYBhtpH62wsLGPAXiJ7jsv7QO+n9oHVlA29pF2mfcWvyhToVlsWt+NZOUsa9Q9aTtAbDhbFX4db93/7R4S8HvUnPVvHaBNN782I7Bxu+E0eV+kdBm0frUxGS8JDfVXyw8Ye6N1yxjqtTWTZXD8lmQQiPvCwarKLb0+7rEMPuJ64XuallFH9CZjdB3gJEwTJZkqbDSqB7q2TdVV7syjhtg1UQbTR+c8rKQKkmYMZiMYgBgkxYbfZaz++OuxfPOG0UnGYis7cHrreAB4YSLVEZVoo0DLx0HwKSXwITddg607DipshKGPVJ70RSi/SEqXvacvYLNQJ0E/bdiw+jANtv14DgJo1YfoCPFX88GmBzR0v8F9EWofkfM8YR+xt48llgz6d/ZRwgL7jWYfSd/WHwjDs3RV9Ik+lj8YEWdN3xnUiKFbfUyDl4IICqYdK/ADMyf2AZ+EF1eZuWMf0WW/tY+4sI8l+7iwj8Agj/XbMRRMs9HRvuHZyVmI2dqWsdXY6FcCNYehvm50G5RxU9Y4kwH5DVVIfkzg8zGOdYj3KiGbM2A9lvOZDOJKBoSD2qubHRXpjyAp+fSxxUdcL3wjeD97bE2Ua/So8cfAFqBidAnDaj0BfsC6Z03fdF5KTd/B9GEyUh9EC2anpS8BB1j9qnBxJadoWQ68JMXRPKWtkJ0in0nL2mCixvVHpUGoGVwuuoBfyHSmkgIbZll20aLN7dr0zRmFqWJgw+ToeuCsHioHoAdsqqamVqIv0girt0orBzNlQVkV6ICe2tFMFelbAZqtbBQ2quJSf0o9gH3gnp4OUHYsnq+crFb5VjNysw8kYq0w6BbBAPsxWrMq2AI6fOI3RB/gyDHY6Vlu2YcmHr2KBvSF+CtM8eeE+XzDvasIWPtIbESofSwayT7C2EfyCfZh/NT6rv7gVtP3wA16SZqbvrnyx4Ep+SvEH/mrIP2u34mo2GaidIWJTvtxYjw6rgx2A3BasgqxBRFVOEGDp5RFCJOqc5RBMBtTxmGgjUkQyQBtP5wu+x6bMgD75XW5YDaJUBRqrbVrricZCA4msMF2xDLgoJGU+a7XyxvBz5q+EWCYUWBUHVAsCsAfKXX5bhDQBGdy7PKUNY+AzNIAdtE3gEYJWtOATeaGTjQd4FRlYlmdnfYDqOUciopR+CPmo/gl2WPWUpF70YfReZSgk6Za4LSpmvQQZISV3eCRHzZVSyYNsndNhcg8Hjt5+iZhgwNT0YfSlzQVJlAfSJdmzaSPWd9JH1GB+0rnXNN3Ak82M9xAcj7BBvifIPROwR/I/lbTt+6Esz7kFhZ7E5PooMsfrKhhbOhbNK357jV9b+1jBcHY9C3YaAGMpPoYnpA+AIvdT4F9TL75oK+wuGxCA9ia78I+AEXU9K32gZZ+1vQ9g75vm75BR1t/tWSPutlgnGkOou+64dn4ocFr8D10/YfEUfayBm0RCDxUtgKBbEZ9Nu5/o+stpwUZND/OwUfzxUbOtO8SySIDZ28NfloUKeFqc/0CZwVCtQcwroANYg1tFGXPWHvv623eCP5T8Zqvn4Kuu0r8QGV/x153dXln3DNz3dHl3XHf6ddb6uitx721Lj9I5/dd2rx1bz7zc3fdkMG8c3eTuLzmHteSnp3v5ZvHPck/ucYLZfEIZuYL55svFsO9n404x8HHOdVXvRHcNX3TucKqzpw1Uc7IzMY12dUnZF55FLLWkKMfaOyta0I0XjrBwHUQb2GPg2gklWghKwrT1LoaewMydZJVbHBS1TJuqo7A0ntrMs5MiGUwQC+D2NAmT3hElBVHN8+bqjdN3xF0FLJTOWZep03fVNfFMoRpasWjBpqvKhNOD4j7RRM3VRt9CDYIdHftAzLwU/vAquq2qfq66TsEk82kQfaJZ7Jf9+MyJE+f8DtBH2wMbKwzSAfcXFo2U/Y75cdQBVv2AZ+kj2a/J/Yx6ibqoDdVXz8UcWofUBm5tI9i5Nw+lj6umr4Bzs0+luzRRziMO5qBvnqPWVvE+yEnK4dd8p3dFpbcnPzsQ03NZjY+u9l0fRZL3o832edi9X0AwyjnNU6xQQ8d5BoYSK7ma1xPbJpkwI3luW6TwWwyWLyhDKbby6iF42MCp+eP58jho9XgxsVCrxK8c7KRQkcFR0TwxjoIPLapetfUOoAuqakvUpM+mBvYCHSoixYucT8mzJLwcrxjEFCRPddE2bOBIyeCPgvb9L16V0476bHJE/k19EFvDdwMvclvHVd+4SgEAt4tfeDTT5taV6CBtDh9LIwhLXgc1EhhWhz2903VQWtY+1DQiX2sUb4JmnsgDlDwp9hH0pfzbeyD6BrnJr2w2KDmm751IG0MSx/WHxh9aAUH+OT5XGOvfyii2Qd9nthH3LQPsF/Cn7OPuLAPr/JuH8eAoQOdv0p/4OgT1toiG32I7BvGdcNEHQF9Z03fJGc5hsI1QtZoDfdmDfL3Asrh7LfZzEbnMax7PpNBXMpgyQH6OaNMhdockv7NQznqYCb6HJiIaNkdAU5Yd3pc2en2Muh79yaz/cLX85WmGYXGNMLjD+rcz5q+IQkn1tvAQ5AJZAQRPxVTTdpTaAoIwMTOxUHjhlW1LFEcoRF7EbCSMzKYWBsqSKo7HQzwgcLe9L36U4BmdIZEn+gjJuNvkFhI9KQ4SgcqQ0k+V+UlM+gyFGxqpdQSGNaEguaLIH5zc23ZJuhjZXjwNB1nlr2yoTpA3VDTt1Q21CFwtqyVjYVhCPyMmPMzhD4SVimMm6oH0cxN1dz0rVUvTF4xS+f5ONApJziEvgqYelP1ZLyAneAmUsSQelP2ah81X68mVLDQlZ4iQPsA2RtNghMx9pE2vGv6BvvAKkJuEkFKNyp/rAB8Ev54IPAr9kGB7lnTNzKOvCclzT6UXyXFN1+bpm+VM+E+hA9Yw8kKAiZ6ICAxN2wAxsYAOjJrICZTBibpy0AypwOctkB3D4THLZHBMDIYEKgD30/LAG2m7aeMSY97gSQkKDHUdwbL4wRr73m9rNJ0CC4lLYFO+Y8yDGr6hp80tieCEhQcaz4up2oTW3tEt4W17JSryXgCfabpm56UCPjumqrrXm2AA0aV+JwQbjd9ZyaAUWiUoJfMcq0B/LKIQNxCn+gj0Jn5zM02faMOkGm0CQoaSqqoj6KxZ82FF8Zia/qWrGps9FAQn0AfVpX4SJIzZFsWKfoC6POw7/QlwOBHaB8g+2qCRvoC6EOaGAgz+p+xqVqrSivgKBxG6Qb5DdEH6IEf1pAvYitb+5h8BFb0qX2w0ok+Yx8KjUE0GfsAorkBWJqbYcOUXZ6+44naBPzXT+ShCMBGChD9FejcNX0zTSf2sWYfEOgs3kaQrtNNJdSw+Vr8d7qL0eWcfHa9rd9NGgayF30gn4TnMyNs1Y6ib6IMRKZevdyYP+wa8H0arAFQUVSafMVUXz2qjx6C0HqzOYB8KC29uT6O37rmeocDkoHBgV8XsdZz3Pe63veN4G/N5V06PiYg/c6+7uryLXWucchrx31ez11vqfO31uWMsE2tH3JNc+eVtM3T/zz5w7w17v58cg0z0G1om3vt7hew21fLfty9x+vM27+dftwLye4/G00GVsy3+Ty7d40D/9sbOGgVh4+x95c/PYe1uRlyFMJB4op6tTTb58OBq0Kxa6qG4xEDisrEu8y5ymmaKAPKk0jXtokyYoyZ3++9ObcjattASEcNVc150Abp51nTdwSemAh9gw0c0xQg2jdV32hqnQETGwgNhJP0v4EMkt9ScNcHNOyuDPzem6WhpCCZ7r7JOFIP7s3Sevx1yz6Om/cfijhp+s6Kk2umjSBn7UgmfhFim4ciUJl5VNiPv7SpOsJsbJQmL5JP7AP8QW4SBKwL+xAzJ+iifTT7PbEP9FdgH6H2kXA29hHKRvcHdJzCIO/2gfxO76+ymqc3GyTVPpDfbr/XD65s/CQJIToffhjbwvC+aSu/KJpUH3wPMNls0PnYUfajfnwjg/GEDNSXnMtgkpznFF0vDMlRcUwWTVYEZ2+uH3AsN2SN8nUz5mQZ2KbvyURU2877Xi97TxMZJgidPmWjRn5XOTnnWwMj0lMOcYDBAD1/cy4tlheWbYmWpA+eyMuB4niLE9tEWfQpaygE5BfoO+bpb1kP5hc2TOKT+IUmaDOM8TeVNdFHJLjxOMjqYwB9qg/R0cRPwUbdKxkwgZJtDHFEgo3TJmMEBSzhmqrz6TvbVE0/bsyRfYiYbzV9y0B98R1i47Tpm6P5c33MKXipQAhl746vF1Wnb1rOT8WLsY9A+4i9fYCuROmBi+BDETqMdfTEQxFbfyA6av5A6Sv34/0V2lsF5KC4ro/0Byf6gOCs6QMvhz+H8R3NoTJw92DdaXCF8Asd9mTTt/i6M30whroNcosGYGjnx1nQTfa95+355vozGVBSFwHYERlgPBkclC3gzDjBlazhadmtiwnepLnf+3pZpQkceCX/0tQabPTbpuq6CdUlFOrKmiGoiAnzAaBAqCBvo49R9GVlA+dT+mqD5jPo2NDXWSNiJtI02neeD5u+taka6UOa4Dsm/7B8NZaHpCgsOW6qXkHDyqlAHyuT0c19rajJEqmtZ829qXrRxBsCV70WDrkBvVdKzIXYGIxFbmgvvPSmasmW4rrpO+nL+YiYtpNTFSNYBvUWX7mHOkjsMDbIVgbQ0qoEYh8YMLWqV6KNZMX1DzVSsY+cD22FsTEjms4x+VL7cIEpDiP8rT8u4qgSsUSAvsHx+4qm7wn8Hj9o9mGy8AhjH+CUERvNPkQHNe+htx2/JFOW34TfuredMw5UCLqu6I2wIQFTVr0qmS8bE/2WsW5McAB5IoPBMljz+kBygwMWeNl8MG/oSxC7/ESwNteve4Vxh+dmDE0sXs6Ba4DfdTiI/L6RQYr5urn+I64XVpqQ8bqZ+68N2LWpOgLBuYBHTd8YUY4BMh30SVHKQALZ9l3TN2bNQwcmfeUc6LFOzCiIvmQH6BPZ5VIlA3qT9lj8mabvXSaQ9Ik+utoe884QPWigc9CyNs/ACB/4hQhxbOhaMph6C5znOISKWR9uvFwWmdGNUBxHZnNAyc7Qkj505NJUnXpgJ0HMjQhkrtNXGxMVBBq/UXYCgGoPRYDOfVO1SVDAVjSAyfWBLqIv6Ro5Dhmp+VzDfW2AAAO2DxlA79PayB5fJXDZ9D2Vvj6seKyAtzv38geP986YJmOtniwdoQ4ElIsmHgayX35qCl6aswF9gJ9y2MCfYnxIF9kb8j7gDsq03oq1exBh/zBGNxC1o7bHQ0KrT7Q2/Uow35yT6GPRNWGcJlBlCoP4xvVak/ua2MlcmuvXOA1C1Y9eN9fDUkPkTLSADIA+bvCeMU5w8Bimvl3wp7YA6qcnKQGcmGx+xPXCnqYbId4HRYHf0dddlNwZ98xcd3R5d9zn9dz11jofN376Sp2/tTP7sPluDZz76uULF749350F5m02XrzGvDXqyevmm6pn22+nx669d2+Nl8rgHg1n9+bluGl/OzfzvWwNf+9aBm+zHewk+3GbzcvfCH4wlIlwVJVpnfJgORkHVlNX3dSjhvW9yquTy7o0XzRPoycIa93LJsqkj3NwaryLyIrIaRPlQ0TAL9JXa2kvim8aHSlg6tcgfrHJE6oHRN9Q1oJrZCwDanDM6sb66aEP23DvdBSMl6hskEq409CCMlj6oKZq8/6lpY8mq6Hspo560/euqbpjg3UeQh9XD6ri1Ju+W+Nn6mjX9B2JxVh6UWzsHooAbGjDPduvsY8BMkiagvTQ37Ts7PfCPqBqYN8YvcHGmX1oVbzoE39F9tsxicdkfFwL9oH8AjY6fWTmUDUFfai/Amw0TE7Rh2Cj7ENsob5IZaS/48m+ud7ZtMgA1yc5pzA2flexAT5E3w2Hpwoo6Clr8KmC18dLZLBull+TCHbJAuOWNck0uqQj/mMvmyIDaKom/zxpEeizVpuZoPOik/bQeLytm48jZ/CbvgewURM+fguy7lsP4QBbQh60YdvJxwROTx/Pwb4Q5VgZZDy2N1HiWeZABxjldFyD7a6JcsLCSd/kz37UAO/YyYEjysBH0R6jbXD+KCR6kCSGm6ckEwAdbIR0/DBZBmz0NWfSp/pA3ZEMAuZbvypabJNxfjod1ZWOHmSvJVXGhhy3CGByo4RxtIFssDHUCBMb6LVrU6mScBQ2htIn+gBsdH5dg20IfUYfchxU/Se7hnuhT6KjhhegnvGiR3FgA6YBHcelP7hjH7G3j6SPHorw2GCdn9hHku+bvpk+fSii9164pxKtv0IdbfxV4mXC31AfoCVrH3h8Exf2IdhwMnjMzPaBa5y+ORwwdN14HBvce9tCv5G+U3Hg/EHbWG80fTt/5XzihQzihgx6QNedhPMl80TOKw57pumbMClYjImBUPliWqPZFu77M+f2D0DsZdCC0OQtXlOSfdX1dKVp5bKKtdZgFuIcQCFqwPTStyUYzJrHgO8iaLyFOpcNkx6Vpvk6I5jJF31RDpXoK1ogcOfIOUajhRxqgl8yFGqqLoYz4FjZDTh6SubQQY+SgaZ4nNVHVruqsqFZ85rPg9ZnzSWLXZWPmr5ttglZPcqA6CvWiDz0G2DAWH1c61KVbwJ9GGoQfYUNzOrXurQp0nzB/GZ1oIIBfIR3rYsN973yIjyLySQ8gUBsQOfKBtgHMKJVL3r5aBQmySYG20rNx/bRe1F60zfpA5Kgok/sQwLTAdhwFYEkdBSfNQz0YZuqZxCeOQYIKwLaJ419rO8aWYl9oKwo2FL7WG6AzLccFvae9aZvDBaqIkY0px8STIJPpKxOMgqt5KRdKjZAHxREtaDH2JsCQUmh4HKQT6x7FKoaO0K9iajBGFLOZg0OcKTqivSdyIDAhrLP790+EAe4hsMBynnX9K2VPMIB4IWwRvbWcdCi/Xe6Xl5pmhsdPP5a303TN2bNaVyTN++ab6SXR/+IxEyhaRB98kTZ8hYj4DsqFbOqw5GvZZO+Wpx8tgopVy1Aj4mOfDnl9SMADGZJgxlGUHKTp+gBZFDTcNb8kFtlUMuA8QnFdCGUuY0tZtG3L0dUamNs7JuqQR/QhFr0ITbquzP+XBYDXghuKtARbKiTQODlfOYJoRB9NFuR1GLdS7mJPsQ+UA/eVoBv2Cgxlp8bbOybqntlg/iVrJ6avmfwd7mJrxLgRKAESE3fB/B3TdWL+mqqfqLp29kHrDtX03fMLnvUB9mv2Aesjw+/NWxsZEDAEmzghkob/5V9qD5SjmB7kukzzdxWoTjAJQgIUolYekNdLlnUuqAPwlo5YRL9YPrIWQN92vBc4ybLdIgMzBq+6RuwADKY4KwryIuGY6CqP3SQ+h281NQvaNM10iX/r22uH1uDEwId1kS/igO1qfe8vlwj+HfKNd9w3DNz3RHx3XGf13PXW+v8LXX5Sp3fZe3D5msTuhXm7YXfskl73l33po7mbV3OW/derYtGy2z3thvW3abqG2u4cfPOvdN55s1xek86BIeR8xuscTku3sLWXjbDF2muv4uDDQeD/ut9rxcez61sUO7Lccvj6wB0Yza23ujJ79So+aDcqBl7a7DFClBk1qsNxVXSr4gby6JaXahh/ELDvJQ1KOs2+lYWAMdBlTdUBlnn+liF6g3FdFRYM+jCvakadEDViiwN46sFJvx0pixIBJmJYdYxQtTGJVVIT3ZN1dUgz03fCxvDYGMlUUxfYaMSmwG64kZSPCbLKhfRJ/wmCVP4dZsiH38pNrRvzNqHOOjdQxE7+6gKwYV9oI2e2Acef13ah2Cj0wfHpQYbYXTk+WUdwWukFByMSbLfzQMBcFTD2ynYRyssdH3oAzN4vHVqH6AD/8CMsQ+soGzso3xOdBvM+YRmOibRxnyHg74G+TrUG8pqYUNsFWmJnX6bg+4Ddw+BIO4L4zSbsSPw42ILSegwch5GBmAzKYOh/ortzO0B+UkVoBn4RnBs/kd5cHN9+Y9VlcN9fw6RQRxN3w1rZRnUdkBYm0dVV6pNQ3H3/tfzx3PqoAET+6bqAwhrk1pOxzZRghJhg1uL9KOQKutvm74pSAoaWPMtIwSnLcpu5fZe5UxHmvQNcWJawg0imo6DcJPl+YQ+0gH/B5ZN07EtmQU+ASFN37M+O311uQZbesGbxcaazzV9Bzkde4a/wYZiEjcxTx/gT44KrT4G0Bc4H2x6QEO3ae41QfugNwrHtX1QELyxjzWqgn6kq8ve6QjtI+mb9bmnLyqgJPpmCMlgv8jvbLZQOnf0gT4oadroYwVbSCDwyc2+Yh94HBRBk+8eimC8GPuIm/axPu/YR1zYR2CQx/oNmQ+PEXM6PV4PIwNat+sN5Wd16WxV+bX6NRhyAwmTLFOmZQBNeO/Mb7AMUs4kX7ajfu+QQUT3B6Bf2ppIMLM+t7LnBFSP4mRLqcApaTixVYu1yF/X07ouEK9APchmZpv7Pa/nK01LWutjnDiOrF7UPXRAvukbhIo6h1u4LGb11VQdkQ4GaMlsEqNuUQI68Fq2AiGtbGB2inwmLbDBYOM7Z81LsActsAhtcJDpTCGFsrnBxPJ8Sh+8SmAgfZKpYsNkVzln9VEGgDiZOpCwAZvE7E3fnFlCIIRZFehAn1yiLA0y1qrguMpGyawCq4Vr5BOycNjTtaqU9hEwn1Q2yD4C6AMcqjGsYFrtA+masG57KIKcq9LHMqBHjNP2xD5ok8D5eGMlx7yglsFJr3ploEOJR61VfgAqArDJzY1gehWtcIQJHr8KBPSh9hGsB7SVqjKjzsE+cGBiI4C+xcnGPkxgirkZ2QfYaGXwmGwaDIHe2Idp5Q3X7ULAQFGxG4DTklWILYiozBrkKdEwEZMgg9S5BKuJIdhbsDJdONg8jAFAGLmeX2MAoK+bvmsNvxdPkjdj6DHGFQTUzhEHAZ9UnQ8wuNfIYIOD9FeCg4+4XldpimAu8VHQY6B7q/J103fQImgTaQrLFgLBBk4UM4AcICCnTSoi5iDnUMuWYyEikr5SYAZdZAym6Zsa+QYghZ/y6FWvtnzSxNlcfcdjQHrreICBaHagmQJ8x2OnloEifXCE6Cs5M2laOue3jhfvrembSQI6D35nfSd9BOuj+NTspbzYTJ377Ou0yRg3EnpUujYaPOppTd+ERUdfd55L9bPRN4E+bqrGiCO3JcHGXI5SsNGavimi5OAinyyc85gP9QF0EX0oVAguMvjtWLSJvgomRB8ie5fgpR7O7AO0hNio4KM/3aZN32Qf9et6UjbnM/aRiQLDpWhifcTK+EG+3IiLPqcCNva3Kg/8BGcdiLEhzdfLDRyogwC68g7AWkHCrpETmwgWj41aI30wxvueUyFv+TiwUXTQiIpmW0wTY1dkMOAxFAh0GX5aYTA2g9+hqdo116dHQpeNKk1aVpY4ohPWcaCN79RcH4yDlPOir21873+9+OWWX/S6G0TeGffMXHcUcXfc5/Xc9dY6f0tdfhGdf9lM6f7s0wyeYe+8oY78fPNk8MV8r9bllP96W/08pY/Le2M/392FxvU9LeBQhpb3xuU8dW/eGse1pH1y9Jo17opubn867d3ryytoWtlz9fI+P/Mpvu/xezX6plA3Opo6DVUD+hKr1ecjrpcHTRgpT8i8ZsWGK3vPZrIJlQ4qr2GFKjLchGSQouwVjWu5m0bCsUuVKCtixXJ8PuocGO0axYrD5fe3AH0pAzwOAlpWlC0ywKM4PPbSt45XeZwE085HuMEW9NEaHKWsnGdsLAOkqZIFOFpp9B13M13lMkRrhKSjEJyvY8NDsnCIx16Vr+BxUFVDKcdJ8cn7lwoGwUchJYO9sAbTp/gDGbiHInbGMEZc2wfR534M9gE66PRRMco3uuIS0/GL9OkRzNQfM3N6pIOwb/ZrggpK46EqALRs7SMG4y9u2EfzBxv7YEM/tw+i78I+jJ2QPyAfoc3XNS/RDBiq95i1RbwfkrP0LXbJd7oHhOJYt+N599AGD1OdR8e4ymDs9FbV2AZKtf0QXU4ertio5uvun1MGuZax6SYDDELPZDCbDBZvuO4UGeQaImcsCSYOJuLv8CkzGtb4zeYP/RLeBsj6Ha+X/YO9EVWWNE3ftql619S6hNrK3aUwMuBZSk2cULm7lNmaeI+J+X1EYAwBkSaztAAAgABJREFUQOboCNYCEaycaNkMGF82fWNpUTpTW9P3rM+FB0tfNuzSzfpcjm2d/0/HbxZfaYMjRoXhperTpm8INLSpNVQfMwo3O33gBiz6oAs2jt5UHbRGwwbu+GdNxildbTKe3XazsQnnM/StoOGq6RuNYX/rqabv2qiVX6FvKL9GH7pRO31AgtL0EYyNhj+yX8Sfs18+Nur2seYp++j4A/tYn3fsIy7s4xgwdKDaB/mDE/tYrLVF4PNMHyTbHjSQjoA+i1MnZ9rckZZg7A4JEGSN5u9ljU4LJNKKSafzMBgnFV358XsyUDkzeZW8WP+sGGo2rZjkRmvEpMPBVXP9WeN71y9EhRlc1jgNTB3W5tpFz+Tc06Mvfr2q0pTKzMAFmQMHubJYUBSF2tA9LHZOwkIHXrUsozjY3X1T9ZoPmihzFKYAwRtBcDDFyoSm0UD6MBJH+pgW3HhxWEXfKTVOUeQmzwf3IEN1Td+tN02WyO+rkrMAD9Wb9CeapsGOmnihpuoBdEklB4VA+CsdtCZjzVRhXGWjWtkoDHMTNMOg+OaYIwUkSrRN35RFLvxx03c0pwO0iK3UfLwJcHVA9AE0cX+KafrOoBvtVwUTqYPWgwWy58rL6PaBQoWKigammaF2TYLcRikssRGBWT/aMvsDbvquTaLbR983TCNzytQY1WT76E2yZ03fsRFCUtLsQ/ntMnXN19hfpBWmjZwXxtK2TmQFGyU+1auxqpWf05FZY/FNMoCgdsgaGtBVQjF4XSzHAKEpA9QliCpJGaOvMaLL4FiC97wug1M5n+CA5LwCdpAz+04aeIk1rBQz1iRwJqyxDBBuxRz+4X2ul1WaEgC7puqZmytu0O4RXULPIHuHTWqWnw82wsfAKcAZQF9JmZqqxwBfM2AUWJAqKXjToKx5xQKQNdd806E4NBOgpuoRQF+yA4JZN0la3FR9t+kb6Ur5lWhDVNWbqg99NGKlRrNkP0eJGXSUsRtggyuSCg7QRwYfQt/UwJSkGvBjcpTru4p81/RdwmJMzmKEZD8HHEXSfENo4u9FH8JgLpHCfBPogx8PtBXTVJ30QQBGWa7oA4UkQRViY5L9gj7UPsgfCH1mmDVVxKHcnAHfN03fQfPpDsff8UQIG+7VVtYOMRqI2FZqPtOMrNUTCNh2e8ccRWBrqobgCPHU3oYNyQj+tuRh5Awb21TbCpXVSFugadNPqX6tM2wDJ9A0V7BHCWOL9WAa5zfUZyro4Lv1JYdtwbppvxgoRsSYA2iRJRjkwntvrl86moAD13zd1oNxiAPEUMfaklhhaGE2ZWDXHbDGsXeirNXQ6Q/ve32ZRvC7fGwF8cJxn9dz1zN6ujPmLXX55jp/uXG9ziynubMpm71w8XmbyPm2893UkW/Sni+f7w6rT/zaBkqvmHKr3XnxQ8xOXjSfDMCBcm/KuCm/HS0QCNbNWbD2hPgm/O/jp8/I/gkkyJuqi39MmMPjdMvjMPfOSZzbITsZPInFU33Mjc45QKPfXOLAJLUXeOlYG2YNk6g1wc0PCQteFjRl+W3XVI3l5J69Vcru5Vxyq+wSq0JZnsTqjTYBJk0RY8z8ftlEGfBHJBkyDTprP2TBxyMT6JtAXwmwshkuzpw2fQcRTdKiptEj7b1s+kY+r5patWyP9GUmrgIEfUCpvrKYftRAR3J6wRK3moyTPqEaq5KgBz4OYprq+zNN37um6sqse9N3ACBOSCZ+C2K3m74ho0t9DNFHls9n51cTXahGkD4Omq4eimB/MIkmNfOtfajidvYB3y/tI+F8wz7o6FHpayDv9oH8zpv+avHp/BXZBzb6d/u1D0oQAMM3fTvcG73JMGOrXfZLbtbfE4Yk6AF/tdayDzY4HcH+gq/OSRlIEDWIpnMZWF+ylQEGOCcywGBrkUk/PXAwzT4Nx3LpN6bIYM5syE4H9OjSbljDjaqavmczyy6D0iUeUU4jgwcpKOf3D5tecDwHzAUchWAgofdsdMTMTvnEoGLSLNhEKY63fl0lwenoA1KWcdHNrgtsqo7gvgNq+l4bUu+cJRlmyboNM03fzFokeKNkwP/q/Yk+oOS/1Qf49KYP0lHJgAmU4usQRwTatA2YY2MIsIRrql4GeufN0socOWgR81s1fdfG2nXU+BzjimTYWE/0UdFU10d4bPRSveKlB7XeH+g7slagdsM+1qcZ1uxD4Uf2seaZ8Lmxj6Uj6w/EXy37MNionw6wXxxo9JH+4MRfQXB2qg/ZfGiepl/XmK9ruHsg32lwhfALHVZHRNdvufZN381foa52Mgh4sEExtLFVXWQ0HAjWNnLu9stB3F72z8sA13A4sLiSNc5w0NeVhIeCUHZnbArdHzgcpAySvJny1fz1Pa4XVJpW1YajeH5SawkLALWESo1jTh8DBLtrqoYfYBMllGMKCGu+5dThp0hE/RRoGu07z8c9H9dN38HfV4ANw3i+kPCcJcdN1WXUaIh5hj/AwO3j7JAsUWUDnmuCzKgcPAqQf0z0Lb5zvhVUHDMMIQsv3LyBLsIfGBI3VSNNkC0FNExKNlT8hsyHxAz5XuO46TuAvuBKLKYKgA0kuQIXsI/BQTfPBzRhwNSqXmAfFHSTJsVIxT5yvm4rZB8RpCMM9sk+cjnf9I320Zuq13xoHy5w5oZ7fd0Db4BsKzbRH4wNrRxwFMUJRT3EwE8is/2yKlUHah9bfkmmLL/UkQn2e0CiQqjfWr05bECw4Ju+BwUfxS/Y78Kp7uNO54Nl4DA04bdt39I94kwGJ8313j6m3GMZNCMkmwEZtLh5wF68X8MF07GzBYu1nX49Ds4COl73HtY4hH2f62WVpijnX03QECHCJ0Upo34P6jjmW8Jd8z1G8CcMTOGWc5hEXxAgSOcQ0+A+07JnODLw/FaUPHDn32XPECFQMWEICZMDLM6ai4F687WUdlEPC2wTF5GdcNYHfl8b62x0TVAlChDSb8g6MfhYv1Y9CDREEYsmdOTQVE16wMB5BDOE/G6avmdkU3XRt5wO6EGfNsz5SjfUVO2CC9Q60ge3SARLH0AX0RdEdLMVdLXUZAzfbTFBA6ekqWZ0TdUtkcGoDGSfNDX6lPfCYfrTlukX0Q97O/QBNoUb+QDZj/Luhj4IWpx9oF0gfdbZwMYFWKQG5fSj9VMMDOhakCTeJ8MdRTXEpsEBUbVNAnYCBAQkGNPYPT46NjjgVZcp9marHdHXPYQwyQYjwE3COF7DvlKCGEHMigxi0Mspm6tZfKdMfXM9LTWa9Vv/6NeFSl766iHoixi4huCgcOXuBT9gMIu+WdOpu0295C6wrawh1uC7w9oHXG/fCP4Rod9Ppeuupu+M0w3tC4y7D8x7I98a6P7NzS9f5XX0TX/nDXU+b+tSgpPNj27Pd5uFO/q4v+B8+g8yiMaNV87Xx92fT24M7/XbrRH3aBtm4OBAdH3YNe7cO+PaZD39LdfTxyEuY7pL09QBHWsqgyv0jVt/nP4Hm6CuPn3l5vHTYeY7X6OPw8oN3uPfjq0e1lezxl0ZnGBt6O/kj+M2DkZ8VOD0wuO5oPIfNnu/qIky5wuYL0rZWhe/aqJcZVhpesxqBSV+w/iaioC1F4Xf3yLNgnAUgvJCmrBI1o9CpKmV0rYSapX04bglKrvQ46AOPKOPg/RarTdVr+MgUjD9GPRh3rHj3i+zby7FJSr75aZvPVq5aPqOoKMQgilkRAnZ5HcDXsDGvuk7EotpHzRfFH1CKtPXm6ojsLrK2KjjQ30oQuxjANSi2++4sg/4fmofgo0u0uumb2cfA8FE1Tw9/hriD1b1bRq4XPirA4uX/mpVbML4q4n+AN8PJf5qij5wM0MdIb8Of2kzxqaNz1YzJ3sHvKfeHDbAh9ADEOAP1g+b/Jp/OdHHC2Swbp7JQK+ONdDlZBnMGdl8nevOo+ys/hnxtnzOLGKwqZpkMKOvu6o5cvrAb/peTdVscL35Gj5JztHkvIih/TzFXLZCTd/gE/F1Be74AdeITta7Xs8fz4GgscGWyo1Z/2MhwL5Fn/2oAZuq10D0WGszeMya/QQ536DPXJucLN4MoQ8AHdz0vcZTs+BJUyv1n8R2WDlPREHKA+QyZENS2UNQqzKQiXPdCijxryj76DJYI6Uj1jacLlnBIkOMMC9sXkn6YIPL+Rx9jMlkauC6J03fI4Q+ow/pC9s2W06mZftQxAzBC2u804I65xfGcRBf4zLAurKPiGa/rjrAD0V4bLDOkT7hN0U5zswodd3gl/QBv+u49AQbpCOBS9PHhL/t9AGBUNOH2GXDn8HGzj7qvU/R1rh+y7V7UELWMLJXv6u6RDtK36k4cP6g+WfnXzoQmr/a2CAFSWd628ggRAbzjgxGJYfnzde7dR2GnpDBYW8zGFcOB2pwdu/eYc3geQ2lxCzWd+NzdnuUPEmbvsH4jZ8alaZHGHywsxyCOK+MPlrcRDaAPRURKvyJA3Ntenw2CqC4wVGzG2UyqQNDHyodjHoEAGXRUo2z9E4E2MSwwtCKHfi51qDN3QMr56MKgmbNaz4PJ83SuBDVm75XsEpN31jFGEVL0VfCHURfLsPJPAWPZcBFX62rTd9M31q3JI3BaDo0WLf4BR3g3CQsxgY2s651uam6Kgy7N80jNnoM1ZuMeT6YULP/4Ky+NgmxD8Ki6ARkj9WJs6bvB3naSIr0iX1IYIo5iKsIML9IX20clcj0hyIoy5X4GkVA9gEgaVW+xW81ZZIA2T6g12hOGHVhH6gWSECvmr4z/ZTNff22/jUAXQTlwkDlCkONadgYvEa95Vo2fKtfXBdMRjCJ+MOKHsqZZEB2BHrb8Y5yNk3V3PRda4zg4Kglfc3Nj77XnckA5QxraFLAgdWdpm+2BU3+CWvJ5/T2Aes7HITKYBgZjDBYK/mth7Le+3pxI/gSEX2jiOjxkVsZxBa9kfX4DgOraXTNxxFuHVXU95J3OZb02Up+ow+PKrBRrzLFBOpkgOKE5Jwgw9okL5EAHERNjsms+aClNmrRAWVugzNFuDBrXkaIoW/JTSp/4JgfwyC7JQdd30v2A3hE3oFdDHghuKlAZ8131fTNOGybBWhUscGVkiXU0hEGpqkPCkxYD63pWwJ2zRgzcBI8VHYI/Kp9JF0Tp88s0zWgNz85+82yNzg6UtljEL90VJ6NJsyAI+MXbvpGusofAIFkJ5DQzIgx+Eim8wtGL34KoZhDIA5y2Kj5MPplBbN9gD8w2NjZbNNHbnqARcn0a0MSDF1WVPBTIvso/0Fwnscb6cVW697BJYKc9DtgjWHp4oZnHLds8JAj0FWBQXqn0puTtbk3ga5K0gQnxxq17vKZyGf0dTOyQqHqhlXjSAbQuI3N9RxM4SckL7dxUKCcF1hba9S9udG5OLtiqOPgwBAlFFOC7g+4nq80QVDyfpdLhV7x8zvjxuaH26d/zFzOGb103Gtl8KbXR9Eyb9wb+6F3p3RjxtUPx2bc3fnuknxfBtv5Xqiuubsz5N5uYQ1Qbo7TRNiPmzLf8OPn9q9t3KU+VoTb5ntSH27qYac4FUoFShIUbwKE86ZbJwS0rRqcOZTSAuMgNzaszA2tJrDliFqqFRgoYRItC1PydraGAYzz/bQu/2nHR+d3mj9uZAB/ms+gasw+zSUORHZIrcQCAgvR+bia0jsEnVT4+YjA6cXvaaqsJxgorYmSwZuvAqjatpTzaiCW2ZcRa7kO/1FglTMsUYrTaixWBai8OoG+I8reNNjyfIv2okVHJb8ZoksmDKVKLg3LqwUyCj/0sWmwZR0NAuzKHCasS/RhdQOzacxYwOnZJs+VOGxkj8Rg0/fCBvYsVPbem76LPtT5QTvxy9hwx18oq64jow98PUXWATb2QY6l7APLzt4+vOx39oHHX5f2gfxu7IP6RKaxD6SP3j3UManHXzis+QPEhBCtDcD+XyEA+9hgYyC/U/RhsEH+YCAmejMyPnSwKqi2+XprHxt+o3T93FuucRGz2e3sHPQWsEbDBuGv21vKD/UbBgioj6wUsU+kxnJ58KfbEfoNloHFfbMtxu6VDMo/e3tbMphGztjhvX3wouF+4WoCnmCNKDlr8zUefykOHNZWADZVBuKztbH8QQvLID+NDIbIgOQB1bz3vF54PKdODEHBmUUFNSijTdM3Olky+noPEgddEvQcC2es0JwDK3AgfVlS7QHRrslYc0za9EBaPMrLII06Io1Vn4CIKJlzU7XIIGAaGodBDdAlDfe7pu+ar+TS+V2bDq+Ln0XfJIfF9IHsKYDe6IOCUNFHAH3gn5s+Ini+xEvJHt9/spP97qEISgpCNtGtfUTZR8TWPpK+WZ97+iKEtW4fAfaxdAUybw+BzCAdtSRo6aPZb8cGJx4n+libxTD6iKbgdiSxqEdsWPsw2LD2sT6v7MNgQ2UQAfahNijzpUxJv2JHqCNaRNd964Znw5vBkAcCJITBMmVaduu+XdN3zc3YLfs1+FPWSJWwz6jNxD0ZjBfIIDY46K8egeRU/MtiKH8y9zhQOTsc7LCWa4hvwvd+fcT1qkoTCQHjkVEj0VGmckId6soyjnEJqMff6rf8qDQCSYoiFVRjUAOZytqosHlvKYSz5ihQZzC16KpPzHSmkEIb5mBieT6IoBe/UM0o+opvECrrI9hYk9/UC2wDaKzJLwJfMq0Ywi9W1iDLwYwiaZKMYa4MigOcqvxN+mTPc8gFN9mWbXKxiKteZmONVCZtcKgHepOxfZUA2EdE+YaAe0pfzif2IVHeSLmxfeij3Gtd91BEwPe1LtpKzxhrXXqTMdEXKbMh9gsirU/gHXGo5Ql6jQMIlQKm9qoD0AfarxZ3RP1kH1EywA26MkDQh9hHADYwMF7fMV7CpCFlL5vOGBisikwJ46bpe8lKAmLFPRLTG57xp73hmbHBcYFrvi75zSBw1AoNkwFrYACbGIIg+KUNz2lbmhSALEPW0MDFNvU7sEGwwOsug9DKWslGq/lNBoIDYC6sI5Jxz8pAA9j2oMnO3xIO1K/hfAYH5G/f93rhvz0Xifcmi0NaE4atmxx4LktnA2Jx4zFcbazosGpzz58QPbqZLafDD7usmWpHRXAEfMfxFAwGGxCJJfc8cOTJaf2ivVU5ABwInJYpDJij/hMbbBmewTxKY29F/iuzmEBfSpLll2sNoYgvPcaCUBA2lWOOyY5FeU1jPcCmwaDEfwW1EH2ksEQfsFGnPnbHa+qN0T5Ksj2ur3QNkQWZKkR5A+0DHghIe3OP5oI+DAGd3wdRZb+TjItedVA7JuvjWHHC+mRv6i+A70B5DETGYH1ghcn4lV01gfRxZh+oD7UP66+G2AdtB0HXJBXxn+AIEZvc617xyI3WxRBVy13yMoSY9HHI0yB5pVpGvQ2OG7JFl7LGkDUC1mgyGMYGh0pe7mWhAoVlmr6h4EJAiCFvVBcZQICaVEFy3WKPJm+2I2szZB8T1p2yz0CACHEn4pUSmh0O6F6Nm+st+irnYXCAWBNdOhzECQ461sonKQ5Qle99vfCN4N7iiZl5NhpGtiijUL2AoaXDbWVOxhlf9fikcbNvoCc8nvH9/C938/GMr32w8j598+ReAXw7n40YL5YZG/pe2nC/49eMO722gbfo4+6cNN/2T8bJbISngfy8M1/sPY3S1+br657OB8NcC4ldfzvXlPmetY/zv08ZdmkfpzqSqkqoSzKz39GRRJtbnW+aaccZc87/OT+atlq2OZyNOl/dksbw9n26Lo9rkkefbvh4lQxYnDSW1+qRw9Bfb9d3UYes6xJTixfT9D13k8qNC/9MOHByfgccaAD1nteL/xkVrPRVlI0l4agSbioLo+tJA/X9Mqs8qG8tzuyXiIkeWAGwiL4jC8XHVPtRgzYL7poAwzcf9oWbDLbNfa3BkZsKMwO3DbZBJ1hV2nT0Yeq6b6rOJkA6CsH5gumrwpjQN4q+xE7pgI6DpOE+Qsux8v6lgkHYNwC3gEmPv4KOA7Asrm8dHwYboTK4ax9I35l9LH1MYx/I76rmmCiFlpjIr6NPjmAEG6GYxKNChn3ZL/oDwUbaB+oj6rP7A9BH3LQPoKls5cI+sBpwZh9D6Duzj6UPVdHGH1if4zAENE+nI/yx+iHX8DxnxwbYh7OFueHNyy/aQLJB9InNpq9lEGcycLbfdBkse/RXaR+CP5QBgo4cgsggZtBbrhEHzQ9NwVWJdPE+I6ixfMlgmsbyOzKYc8bAtpOFgzkC9845J9vcgQO6tbA2DQ4gyFtrTJF5o0VE/F7XC47nOjgyqMmGMMAJgWNp2DV5PiasfgzXRLk+KTqCtZA+LJyvoyRp+oZATTtTW9P3rM8RxlgXKdmwSzeB33HMc9A3Hb9ZfK0skYUqx3Pl95i+TdP3gB/gpoz6oGBqow/cgFUfSNzaxIiN0jU3EM4m+9K54EVkn0EwqXI2bGQmSg2YEPzAPCNYBl32TkfiPBd92VTt6MMfbxpEBRv7pmrRxyxdFX1GH7ah0zTszuh4OSZGbFi8YBWgQNlkQE8gNvyBfUTcs4/1SWxcPRQR3j7IH5zYx7HwZdM36YPni+FkynpT+vaNuDPIOVECFe0er/u2Td99XZHBxLkNxklFJ368yT6RcMKvl0GcyKCJuTvAZoT9KB39pLHzEzlvbdXgYJ7gQGXgG8vPH4SJDQ6mCkZw0JKMWLjbY+0jrpdXmkC4EUEOvPpAjAShucE3Va/5uIlyCZDKCrXIcQsAKMqsrADpQyADfcG04MabdyZs1JJl0Ei4yfNhMCBNowPpEybPmr7XZracK0TpRYpEusn7pql6QMAZ5TwxEELyWOUj/66VHHoh2xG8VTaKpaGSQZ6bY1YSrIf85SBRoWLYoQ4IUg6ae1P1KH6JJv6+glX6c84XxC9XmIBowGQ1xGJT9eYxa3C0XTBRsifcHfRlwISVF+hZWTStTDF1wI8io3hhGJFC9kHpcq3LtgcBXZQ+OMOfxTM1FKOfqrutkXnJwBnVZPtoDdkxOn0D9CHBkfqr64ZnlelJYz7Z0YWcFVcOu1FyaQ8EtKA7vPw0YhdHqlUlkoHD1fFFk69KKIYzwhZpjBmM3RX8RvkSsg9cdxgZLJ+oPIoMxsC9ycvZyYDkvAJ2EAz7Thp4iTWHA3bt+pAKBPbu7J0N3eKgB37nMrjE2jteL640Fc3YVA0BRx8o0XZ/vDI390HPb7T/bYFTrjrpv5K+EWY+2k3MhLKpIRtB8OTMInftHklUU/XIgGTRvRxuzYeLqectcRI2QQo8n1ZblFgA5RJWYHAJ+gCncwrahQeQR6cP5utSDTW8hhflAuTRKZPAM+erTScbbJc+oK9q1+iN36esNo61En/yCPnAkYgNcRIlnYO+UZtnxNjgF4k4/rM12B7f0H6HwQbNV96O+J1iH7xPO8G0m6SPM/to83kcevq8fVRkt5dBnTBV9t9HATY0/lf6oGnZNVUbiMk4fsLTrjOMnAffWfNNGvX4bTZ9z05fuk5cdzJ9FFWM0IVLBqMSKcVQi8Mkod1VVIhQIro3X9t1D35mBk6HFaJ+g1ltfA/EU2/qXzqaKAPQhwZMxdrrmuu9zodgba2bqV6kH3c2R7cUB0E4yHWnx5rSYrH2QdeLK03IdAsq3cjW2CujJs+7GdYH7Oiz88n7VvLrtSZu03cuLXNn0kxPN30LHrf0UYS34QR0eTqfbgRuY5Rxdj7JcE43f0Pq5k97unbCo03kRB87PvXSTWluplAnMzd/PJvPDdPYcycLTkZhmISnY1zYHQTyJ8uO859agdarA7o+fFP1udJxs6Tlp9K3weTczTfMfCcbi1uYbKUIbDS3QIDl6BpxbaJ5Ma6CWCfa/lsWlQXW5p566c2P3GbgYoRx57d9nNsKHvZmKHL6dRhydmPzQnYSuuLY6pIrN8/o143zWBPmpBJ0vsaUCb0eFGtOBh1rN4OBN75eFjSNqBL3yqJDsl+UujT2Yln0EcXKUcOaL7NfUYTaI2Qa3FS94mPph1j18/X9LZq+g4gmGZw3VW+avnO+aDsb0lSVaCifN/qG0MUjs0Q7Cowrq236mHML/FL5yGoZZsKLJir5mybjIJ3vGlMP+oA17O/ZCyuKX8yeINPdN30XTackg+zpVIuO5NArTRqYGAnQh/I7I3XU6FORgg6ouXSKPgKP5MQ+UB9A06l9xFBTuLYP+H79UMRN+0B+r+yDjuTAPpDfedNfmWId2YfgL9x8zocBfbt/DWAr5+z5uZAV2WqX/ZLb7D9mPMMazUfAGgv3HeP84Eqty3tKoOyD16hxwboUUdFedkMG8QIZqJxjRjZVE+5N8/VqoE4ZzBlzsgy0+3qtga/hTnlT8/Uh7xkn686UPb/pWxvQS853ZLCT8xhwNJlrKKDe/3r6eK5K8KaJkio5EpjAyBVY+SZomG85fAlWW4BPTdUo/CpF1kaEjqOF0wdd9bl05OmbylokeGHzwX/1vvO7MoUKNDq/HGJn03cgfWVk+RNquAd94MjBjmgEBmCu+XADVKDZNlUv+qip2jR9a0mK6OvYuGz6zhIh8tvpq/mQPsMvBcZbkmFjRbn1ByDgkTerD8VG04dL9RnOOU9v8BYZQEIjSqcJy347Nqw/2NrHmqfsV2V//lCECGOvcuAX5EYPRURs/dWhc0+f/vTCXw3efGgep9+hemNMvrjpezKMEaf0TjJcA2SfMu2CjghvH3dk4BuPja2OBvJmq/feqM7+tPi92/BsbFoxaX3E8zKIU1p267IM3uQBg2aD7sGaDQ6ewJqXwcHLbh96h+v5SlMmKtpUHV1x2EQJ5ZMSwvFbiqphGXU6kExZxxE4nzZBozNE+rpCakOqYZ4+SVHgV63pexk1BCd5hj/AwCWrLx5TlFDZgBAVDK4CK/VY9ePeVD1hvtpgxvHzVsFhdmG+out20/dA+hYtIfSVmNEBMX3OcQA2sJJzyAobim83fc9aF6UbY0ChAiqd6RjhBxIwVUOsNH0PDLoLGn0jArhQFaPbSjUPr/lGtw8M5DKYVlvhYZWeaFP1aFh86BIds9JX9nGr6RtMsKbTBtagjJZAXopLmijQPf6GG2maPv9UQFH2MQh/PF+T6fGlyOvBfg9IRjGfuNeAndfwjce1mfVG3JF0dTtj+9XCSyQmYTMeLAOSKcjgsazgoEDJyn+tDKi5XjEJMlAjdDaDYpE1qHM373HytW/6FlsQHDzbXM+BWg/ogmSPOvc44CDPDZPqXcN4oLvliC6MUN/xekUjOL+bpQuSFZtgA6FFRDZ9519VFg0Qx6x4TARZBj5tV1kJpJ4jzITQoJe/KeobfbiJ0qfOB04dAxLZzAY0X/edMAhEvFHjVgzBKBLdIk5xgI2+Qf7HiL5f6Mgtv6zzoXIzzgclh7JPUU1Hn9EzZZaijxkxh9FHyPqIjTVt2xQPbpOuFfh1bDCNU+bTBOBCD8N/b/po9sGJTH5ujK9xsbMPGqmZfs2L9uHehI86Ul26C3srXdM3ZcOYlAwjA5xvaPJlXJK9KfQNpKSSAsy++70VwMIiKynBdXK3qzB4MdCavgd/70/r9oCINz3cqCXjB8eB+9uE8XMlJamPyJOjiYQOtKOFA1wPA14BQgZOIgMxZZIB0QX4c3Zumuu73rvsm34TB80jCsy16Ruo2eBgpTmIoTtYU5mTDBzwNzhADFGSa/D3WGL5YMO/s9UPCpgiXlJpOiN2NtXbH+2aqvt890jS4weITy9pOVt2Xg2w08GvM0uQDFGHj7P5+jgEoSXagTrwRwbgsZnvDl0yzuqjZUe7aNjN5/90i77o6xJ9m0nb3nyi89THiczSfYxgr2UWo/lonMy3E4hLMAL0Qeut8Nljw03e7He4UbHBULePomT6+WY5VZ7vHDtb+prP3WByNx/qY0Ny53stXDov65DkCH5CGbvhZ7g1LN/nfq82LzdvjxxMjGDHdVlwhFkVhcE/adiefq90NjAvZGDkTP7ZuCbX8GxdmMtwJGij6qpUeGjetsakcV6+RjA3ZUBBsfnt/YeUrrB2yEASxN1vra1aEL7P9XTQlH4OMxI6gMfw3zRRhm+ixKiTtKg6hLIjnm/3f7RTmgW1dySKlqTvYDBPTog+aWolh19Et6ZWbHAMPmrwTdVaISiaajX/fpl6WRrSxZmXNpymPkBHtWk34Su7dfQY0mQMMsC3xpIAsXYNevBN3yUDPP7y9FXqeqvpW3pqar5g+qbT+MIf6COD5SYsKIMctOSn6AMa8zEzvbQP0AE/FHFiHwiy2w9FXNgH0XdhH5Y+4XdB585DEXg0GkPoayAnTNqm76iqAPmrKfrAYArtg/SB+ENsbx6UIB0lrLucRQjd7xpszEh54zHoQNk3/QqeJZJxgUTz2RcyWDdr3WsZjJ0Mmi/ZPCA0N/5ZwDYdnicnXymWadadg2Rum74jqKl6yWCKDO5i7fEJbSc3sIY2OLE7PETOy8cKw00ddt3CwVoDsWZlAJPTVveO1/ON4BGPeurqNcnyn2yEx2hsqlbFUqS7so1+ky5sqo7gvgPbLHjW9A2BhhtGpVJ91xFF5SWD9U+AtAbCMPfsUQOF9q2qlBtreBlwzfr4bpuMI+lK59lk0IRf7CZdXEXDJ798U7WpeoGgO30Fq9Om77Wh4sY6JEBYNECgvdVHebGujxBsKP6WPnCksQ982rRnm4NIQV2xYJRkDgBdAzo3Ve/tY1j7bcPSD5BJEH3A77KPE2yw/aoQgD6IeTw2UOeuYVf0gf5A9RG8bsML6prwPA/5wRpL50pzGJsxJYEhazS/6+zI2ar1xbgRin5VwWofgdVRxFC3wanr7vSmcjb44wT5WgbjSgbbdTuGphJj3drGD+1kkIKsue0DEC/E2pkMSqR7GYTK4AQHiCv6R7YFazNq59phbTg5a+L8DtcL39M0AzxHSqk3dirz5RRQzlS0wSWWfFSZUHZIoOQ4aFjDdyLAJlaJPjz9NoKUnPOlYx6NUAJWzjfIc1CTcc6nWy+Lcqz/oT0RtuDldNY98lQo+7V5o45YuNh4l79EsjjGPG4NoK9wwFWMNU4aFw02il/oj6slUgcpPyRsAC2QPQfx/lh3LNkfn9jHQKCTfUj8cxJYgVxlrxHowOFHaB/BWX1tEmwfYApChNiHZM2IT2z6XoLmpuoB9JVeVgBm2CAc1tyAP9RDqqgyy2WX2vQdzn5R1UAHTJMCok1i/QASmRKqw8Zy6rVuBqHy091DERXoYLBaDqY34kqlGH7rmr7pM2U+CV/lg5s6oBpj1oBxmPG3wGDgumyCKIOFy+lkQA3PrjoLekNrgJiI5GyaqsmXAHb5qSzBn2CcBEgYNzJAEakNkgxU9h4HKYPmgDoOdk+67bBW8i4d8b4kPmcYGQxc14mqYw357jIIksFOzsg79wK/3/WyRnAU5oP6EnTABgfC0B9n0OoAsebJ+cR5Q2BA92bEkAZ0nJicE0RtTu65oc+Qpt/ZBj7mYwNq36jitGH4uCXJGlcslD7IIsLIpeYb4Ht0A2GfKCc0jRhs7qb5hmv6XkvBbqvVviBU8H4uMhC/+fgvonEczeJGynMAn+OY34wUnpsIMNBp9LHTa/qg+SDoFlqtL9g4iKYPDEybjoCKzSJzRvdbjr7pnNnczDc385VdNEEjAFR+MPYRCzp9BM+50UeNO9HHXeecm95s8+FGpMGyrhsn92xW1U061VGv6JksZ9y04R7rF3ZC+S2Krgk8Az5MoAw6SG/Y8EyjPA6wstTkD6qndVfwpiLdbMBDhSXjlltDebSEDJIIhPlS37KNpaOtzj0OpuBAN6KFtRm4MNROz7B2ggPXwF/3CmtTGvjhJfBCsmjO6kNE/1On0oThONYMm9fbP6qu19W43HOlPEjb6HSeyc8F++M2WiXd9U0mI3No7G1VBsPblqy+33ixtL4OkcHxY65Anc33GvoMDggb6ATGjfk2dDV7nqz68Nhoj5Zv54sGYcQGJgRKM2ND3gWWkSq/dmB92/ZlmSXOZFXz9XXZPmDj5HSV51tZueWXF84NttFX61aW3zHZ5xv2b0kyxMnefhEb8u6pDTZovjNBx5lb6Qkb3WlBehBu8F5rutVgsnbcINCmH4JZxVRmBFRGL+JorE43RTgZhAcsiLEqHoY/gqTBAUWxYlsu0qd1w6w7zLo73Uyjh40oAP+I03nyWz/NDRwc37t/MU/lRagF9jXC44BnCo+Dqf85CX/D/fZU9mF19PjvXeL3Za8XH8/xMdSoe1Cuy3813ZT9SN6rMtWcE2RqYxjHu2lqneooQfZQtXKOMqtRzbdDIIZ05ePS1ezNb87tpc+kBcbVfCQWLlliCVcEiO89yaMpKVO3Jk/Qw9zI3umojqEWfcthac9KxwbPF0JfObak7/iPHluAByS6JtBXzZYV/Ez6VGw4ncMSdJRQdOlDEdf2sfRwaR+CjZ19cOn9hn30c4iqXtawdlyR+BPBjNGJ1qbvfH8a8TvJTigeaDoaBHHeGEAfab+gD3LbYh+oj3jWPsAfBPNLTeQDNg46htCGZ1zExbZg5w5XMG6tpc2+jOeOtabfMtaOyYNvem2HOSq0/5qC2tEYYR/GcLKfG12GyGAWfeyvRL83ZDDOZLB0TnLWd1BVQzba0USFBDdGUyxocHDW9I1Yczjgt3ofwbTIIDYy0MbyZ2SwZIi2OicJNY6bwG+sHLzb4DtfL3xPExr92vRcU/Wgz6zagA2WwibJLCKq/2S5x+YA0ZFq5hGBKFOg4l97UCtNxhmoRRqrbe5LSZSX3TV9T7LWctqUGR0Dh6xb9GFVac1X63Z+IbjAQgR8Fn2cnjJ9QItswLbpGzcxmk/oUyeB+iB1aF8OOEPQ1bbJGD4LfyyE3DwjAM+IDZyvN2+ifaxxZw9F4LrCWrOPpE+e+rO9DQH2YenD+UBXG2xQ4tEa7kUfu4cikD6yX9FHs9+JEMrACgOsrX2AVgsvYCeKjbv2EV2mvaKiDzacPLhCi+i60J+lti92dKvp2/FmMOSB4NdwMvDr3m/6VgetTd9+XUkScQ2nX4IL7DNqM+Kg3YMXTec3ZRAbGWgCjzigf3VBcfAarGmwjDK4gbUzGdASGxl0rG1w8AHXyytN63Osb+BIM4pfWT0wvACwFJegZaFmXxT8uGfNsF5Wl1gRNUw2XqCLNhBYb1UskM/Mn6Zmrz2oSEaOqwcDlbRQkSNlGj0ABAtaFS7il+g7ZknWOCirRQLmg+9zZQ+V1Sd9I4KqSqnLmRNzg3x9Yla/WMPkcaqFoLODTLaSPtdwCkEF6gOD8/U/nHBBNlwEDqALNBrobcaidbJ9rACMNwmkj9klm0j6SvZFH+uL3mQM2CgdcAVk/Y3o06AWcKjliZE0gO2NogUrAvj0qFa9kMzUg6gfH4y0rxLAgVH64MZoSHjsqwTEPjA2iSj5gezHMIFaFxVl+ovm9dvpAIhCIKCWvFvTd/IGeCFscFygD8Oy/KYYZmGSK868BgewusZJ07ckBSoDwloLmE4anpE+o1+3GbOcVb+1BuJAackgKmqNxTdiF5iLuIGDJoNhZDAidgHsbRkQDiLYb6DO9ziYWxwcdDk/76rfZg3yOe98vf6N4DOOhrzUAbLMNyVitkckMSmydk3fdWvIfExBBmBj/U9YMaOzw2XO3qqcm4vhnHp4cD4JjClOw/n0mGiADADtnIHgseOA+QbIfdC6KlZ9bxRwC/cgeBP1qteboqN82i+i/2IG7xGaRUAQ3udzgSlShZ5ownxtiU7f0Ds7TOoRotoHZ7ttXc0mh8HfIfe5w4adr4Ktzu846JM1ho5bjPDfpsimsBEGG/VfblyXsuBUZMvjrFV3fdj5jD4267r3MtEpkcqe7OwB8FbtaOOirfH4QGEN/0b6YXAqetjq1zFtbs2TNXb3atNm5vbN1/3GbEYymg07GayEB1nkiooRDLlvJ8BqqsY3qvO4gV/hE4LRWuQCBzPHrabqTGI3+JuDE2mvcyf7Ye+1mg7Z/r6Bf5yuKwGTWaPWXXKTYswHXC9uBJ/4ifHGE5sCXnQUMtZ8U5Szot1h5uMJ2yuFxkbIdufsI/ujqaapdTufWfY2fZTvV+id947qgmRvz/Hb/+6OCtuj4JT9mnmx4Hbcq1/CY+EX2HBPE7j3Q2nj+3aTnPtbxJkNcs1IaXzH6mDZxzDzbbBj6QNHkWrgH2Clzc4DjNAvp+hD1TB0runt98iwubdvXMxnoyuyD67YCH1G9lf2gVUIht14zj7oHuscT7crMTAKliya/7wBxOD/QNsqWWnlpsu59u1FKchvVxYHGtBHUGVHaKG1gityTfbO9sUn++MqWTeiPXVtA2T6NiE41ch/18BfGnrkh4Ir64NuNtfP/ju9V1jrNu1oHa/EAZKJdulwMOwaIIPEwR2sheBgm1F98etlQdMwb3RNJ2EqBAJyfGqj9LUeTYamPXS8oESuiMj7ZcBIe/MhCB+AMuXmtrENGhz1vROp0IGbWdHS6RuBiSs7nePujOIXRlIT4AokoSzK/IKslmPZbN4kZtCBvjmXlL50lJccxRUMQt+qPMbGARIxQccB2HfSGw21kRQCK8zGFn2KP1i2+BXAjI5J3/xq7MNgIxSTE/l19A2yFfeWdW6qrn4rgb2xX5dRSlM1bPLaALyO5JJ3g420D82OWeXX9gGGfmof8P3UPgCot5q+4ciGfI7DEPx2Oh2Vk7BrMG8b7IJ9kK2C6TvetvJzT+jOjc6bTM9lEC+QAesywvpTtI+8V2vwO8aAaEr+GEMu4Ei/C2ssX9f2mVxCmr5BBpPepH1fBtpY7mSw9Et+55AFqXjpfHYcrDeWEw5mxxq/2dyvwU3f0w7c7b9rfD8ufd/r+eO5FXVPMIbAAHHI2GjMYdb8OCMvBz7rbmTZTzpTqUkRM7xlH2qsixRNWsD40Dlhg+06w6cgafE567PTB/xOR59paqUGW9yUgWjYxNJhkZMAUmAD3uoDNrGUQG56oA8MEEL0EXwPncRatoJgwUsDvmuqhuAn5+EnsXzDvdNRePqWwRNrvaGYG/OVX6AvgxrltxlDCJyjVfkyIIk4a/rOoGZc6CODONOYirQ5GQCfWnVt9gGfhBe1j/VJbGzsQwcaHZW9IX07f3BhHwFBXvB8TabwudPRvuFZnBMlUNHu8bqbhudxYW8bDPV1EZPnMljs8MMOGz/eZL+iGqElBs33rAxC6TMyUCPMRAHI4weTxM5VlSS+kYlt850bOZ/b78bf35BB3JXBiZzjDbHWBsLc7s3mMfve/t7X85WmGZHKkcfZuYxWsnncQvCyMvNRZBjHT6atkD3dK8w3yVjXMIx4k5S0UbkZCCxu+mb6uPGdIzCkr/k6ma8CiJov2PNSIHeMW5H/yjaPcRjgrGSJnn7DbA51IIFVe1R/0Zyb9XJ8oODcbNd8+uJLyUADpqFRLKyR8uCGP63yMX1IE38fQMyAtYo+5Rfooh87+iL/hnrA4wHN9FRA3H9SzgQrOLl3k10cNGUkFCCztWHVWhUw1fB0Y21gGc1IuriHAyuwSx/02o10kGIfsNyAdbFq4rJmwgk9FIH0le20pu+E/bR6QJwVfY7fTgqZG1RwUldjMA5UzvBbwtVinUg2sqJ1OZez8jMbJeIzm76dDCTTxzWmjCO8YvUHZQDrpwwkIEb3uGTG1Y6iu+1HKoNhZDBwbyrGMEgpkqHp+0QGATLg5MbjoO2Tm+Z6CMOBd5G9qWqLoYsdQSCk5qEyIP2+UAayyDXWBAfxMdcrGsGBWfjf8jRBTmjb9E3j1kxugxkyH/2RgyNcSpTPGU3dfOAGgx4IjnQ+AgT+rf6jHUmOnE3mY8OzEeeSSD5ujKM6dPpbzPuVfJHaREuj9NHn0+xg3WPNuNho6H3NGVK+KBVDITh3kp9a1GgrVMVitJtCn5tvNH1VT0bfhJqPNBbfG2yPgTR2rP/XsyzKjIfnd7O2EUy72e6MK5fFG6Ejl+dzd0Oj6818+FAE6MNh1vFvppzDDJTsdmx+m1n1KS0Rrml5evbMuiYbEt/g6Rug4yH3djKQRMHIAOFHDyecVDtaUK0ydhCiexWIFRsa+AGrupfIm6pj+U3y6ZP+4djHfGMneiDzvpwdDrrO/W/HDR2RfGUNR98e434NraZvZTBx3fVjFD8kWrY6JnvOB0VNz1eajghdo84lgB6g9MtnQtoct6JsY2wy8a6pui1/FkDBurumb654RIHgkl9HH4Q7SZdWryAab/0J5vgLGFfn0XSIBTzNFgKriJnPRAOzlcEwEjXxyQ7wpvG9HQdFVTfO5/PREq5QxZlp6IOR/D6Ei/lMk7GVGwiI/jRzqcoBMduarI9thPT4jywY0XzGL/nIEv54VE7APlrV73S+TQAF9lFVyV6xPG/6rq+tKXiIPlZGb4Jrlh/gzh6TKc1Lz3MzH+DABOs2MG9HF7gu9raYHbzpd3bFOEepwoqo14vkn7n5uimhpbVFSGt8H/rbdU+a6yVheNzDV0cg/nZ7E9p09Evz6SW3WP4HG/13Dc8s52FwEBsczC0OHNaK6FoXfeIV1vY4tVjb4IB4DI81v3X7Parnl7ynFDw/Jmp6WSN4lgcnR9ziwx7CrEyDm6ofwuhval1R/doQWIR4dotVXfvG2UUTZDF687ypetP0HYG7rfBbn4XjG02tSRdmDtCMt+Rn3y9TMrjCUZZeRx1AuKMQ22SMQRzo4bLJGHS+FxboY9tUfd30TZsP7KtMnzR9T6QPRiIOQQ/M7+z8QiDG/MJn0lU64AZb0Ec6aNGHnrFB4tH0MUUf8QL7gO93H4o4tQ/IIO82fcc09oH+AHq/mn2ELhLeX81o+LMYdzQDfbt/DWAr5+07ahx2Ta/lMZCSKpFff4gh2iLdZ5sHG4I/i3xZAwMOGzw6rHVIrntTZbDF314GsZGBYvK2DNZOHiD7OaXh+bAFbXhe0aDggJuvD6xNkQH8No9BW9O3Nl+XnL0MJslghzVuQG9sJNa48X1hbe6xlj7RrzEEE/vs+8tdrzqec02ULWrcNlVX5J7BCmbyBPJa0TdVg5NdJGTTKN2E6PcA2yzHNoKBQs1uE0C+ow98+mnTNzj3Kg0ZTw5Gn0FSZs2u8e4qYsKqkmx6qatN0zcqGBYmB72oX5s8qdI87ZAlBqkqJTZqnrtN3yxozpaKvlnOrtEHN7H5x+hj0bB9KELTL1PZ2DdV8z2qLu3wJ5l5shHR7SOu7OOYB+w3YJ67D0Wo0o3Ku30cA4YOxCg46YvcLDp9wlpbZKOPofoIxjjGcHmv28xrmr6Hw276AWMLMDDx3OTXdZR1ALIZh8kdxs9lENZWMcEzugRRaTWLElvFn5Fzs2nF5Ea/995y7abby6DtFSc46Pbr5Xzd9O0e5GjAKr+hdhlhsda2aVLl8zI4tbdj7mFw0DPxL3+98JUDixO4KLgd7Xtvqq6/cZPY8Vts+h7Rvq9bZ03fNBJutqbvZXAQnGTJe4CBS1ZfPEYlFPk5ah9HfjOwGkJo/bg1VcNRFJXkj59vcZOyqjSNX/RYfOJ+XtnyFPoOmaU6pMk42MBRR5BaIFCKkszmB8w3hF/QB9EE3ycsgX8e0vQ9Sy4zkL6ihWgi3h9/y4oGBMliCoUXEKl7KCKSrrUpJlq7feRuIvqQwBTpmkJKDRx4E9SCjk/pK9zcavoeJZsBgLFN39EDiApciyZq+oZgv+y31p3FDtkFUALJsOe3kUKBqTY8B2yAYiCCe254hjUcNmCjxASUMDw28hP77XvYpukbbRDVKzzSScFaS511q/isWyKDsZFBdDm3pu8lAxZ+EAO5QQf7CMGkx/0eBxW8S7AgDoH2HFjjDAdnWGunIKhYgwMMonaB335dkQHigISK8gYcJIYM1iBhjJM1Klh0gciXv17XCI70AjB27ymaMaDnbQFHm4/rbzUfr4VDqIduOozO/Nv6dWv6rq0Qvq2fjxtN1fRjCEdUpVOatM02q5s4jYL6UsfhVkf2zdIVhqCSdL8TCg46hOxlg/KC9r6/R3B0sfRhNjGeb8J8g/npQm6b5Ao8kb4HhkzTt5lzjgirjzliDNaW1YfO5/QhgSa+y8zaB8rPaavNt7lcM/LUOyNxRM3NTfbDLuTtd3b6DDbO5wNaHL8GG3Y+afrOIP5E7Llly0LnTd9qR2ag+C9qpt1k63WLfQMRPcz8Iqy5opWcT36LX/NP4IiHLKJ72kpEgP4pTdUkTlxj4W8aOSPbm6bqKzmzjgbM13+st55t+p4qmDFE52F++wzWQChKiwTuu3wWA97WXD90LQx+znGKLpaSZmFE2YKaYlRQHh9yvbinyXtqM1SavquaIqKY0wtZNwgp1xq79g6TgDQTLVweBEBC9KWBRVsYC2Qh9B13tVDQSvRLBuKhWiS/gk3KhE70JDrqr6AfUDGawWVVE4240rYuNaMnOC60oxI9Z0+kD5uVgQ7I8pVfGJIkTBVz3ZuIg9mEm/o4ASBB98JO8B1ZXKoEfZzaB0++s49GwubJweJyHvNNwo3zZr6p2kWysaFvynxhsdENzdlbX3ds/sT3gM8Bja5QTal7j/GUsa+vqqIpayRv3q8R6SB7rF/wL9sODraM2BSbYTEe99D2sPlaGp41mTn8aROvy+ao2sP2S+hb5hgb/JF/MTaYgWbozWZH6D7oaNzgYGzX4MpNt63oWDvBAXmheQdrLomJsEmqUwvKPm4214fBwe3LYG2CvQXgYNnbuov73wcETq84nuuh+nXTN4JxSQM2hLOm70NeeOSQe5KWwifSB5kDnLViw3F/v0xtFrzxmQraSp5SNNVzhEcNeSRHFoSZ16bJOMqQkSXbXMrsVhk4pY/GP9g5aNM3ldlBH7bpu2RQPSaxoW/pPEgHtuk7N+3NO0eCdaS3Or/6PhMSFmfCeVRomr6lqToWrpVflzGf2sfo9mHL3cY+lI2dfajizuxj6WOqfdRmRjv5VdP3dPwifYMBdafpe9kH8Wvocw6/2ceu2XfzoETTkay7EULjww2DNQq7xe9ag/CM/qWfPdkNnXy2k0GwDNYapbdrGYwnZDAjuuwd/oz/sw9y3GyuD7HBXHeKDFYkCWvMOSO06buRoraPMphGBnusoQ3i28QdiKrpe3by1C5pXWyuh8RuBZKiuBlYqeSj1iaD6M316VtRBtFlgGt8RMAU8dLjORfFB1SVWkNxbSrUtHfW9A2Bhhs2A+5NqOQ0+g7HO2ADzqyglHjnLaoS2rcsVwMdlQHvoiulKOZoA1myWvQ1GTThH59IH2Zp2HBfuhpqXFvmLhr0iL5N0zdurEMChEVDbqwX+mhpnyU5sdGbqkFYGJiE6AMyMwp0BBH91RjGPgLtI87tIy7sIyAAPLOPQ/YJv0bfhPkmfCq/zn5VCMzw7BDv/K4AVbBh9bH8geqDdBRFn+oDrw3+UudKcxibaWDTe7DuPMOVw65uKt4W2N7Efjf6KLEYnxjmwYaFIVjD26W31bmzrdFlMLYyiJN1jQzsnuLlbP1QiAxO1nAyiKaOblsOa1hd2mHtNQ8YbGVw0lx/hoNAfwCL9Mqp33+RPoRs99kncn7n6+XHcyDw/v0QwnLC+TdoWMusHieclSxhILSyKljeNlXnfEXDGoePi1d4U0HFIJqjZfVVLVj0ISZgC16RcSz6ED0D5lub98j1aCMn+uCXSNbo32s++D5wPmz6xgrOBCCW8eUS0vRd/EY62aLPB8E5LfFeOOAnGQc4G6ApsaM6QNWvJu3IzTb5JT4XXbW7D9ARbxKQFLAmOxGUbDr7wMBQ9NGCfcZGTeGbvvOXgzGZxCV9I+pPtTlljkf8mqZv7AoGETS/dgiINonjbymDngVR1WMxh4FVJiZgH2TeEiNVUMObcfGrTaiDnHrfZAGbQ3EwmkB43QYXCkJ7xRE3GNCpbopLCOivBm5ENQ6rCZDXpwxq6+wyyAS0ENZkntWExJoEyaIafCCg28ekcSS9MboR1oSq/m6DJAPV7x4HqBuSQSMFN/wp6wrJAXq+g7UihieJAPu5LwPG2qS1NMCpCe/KwMj57kMW+NoKmfsjrle/Edz9S9K52aBSyTfudn7A+tiNyJHmzdfNUz6AqAbkZh1RmdcZv6PTY0+Jd03Gdr4hDsdctX8yu0Pnk6pCDNODOmQ+2m2J6uQX6TPrZgWB6JttXS8/I9ilD5WtrO1IGQf2xuj3Jy/Q9REc6EQE7UlKt/rwPt/U2cx8Q+ZD5yD6cHw5+iZufmugsY/tfCKFDYYav3a+CnTa4Dv6ECE3PVAEe3athw4wTMUAB0mRoBCdkskJeA4IeI9788ZvMWCnSoBtll7JBhoDj0sR073HxBMat11TNeqN4WiU5PS2eWN58/yjT8aVjN24iLO3oit9vO5gPakMYPXh3tR/JgP5bEHtLQxJw3OcYU34PtZoyVwYGRgm1LeXmLrvaP/tpzQ67wO7r+4bz7bx/Z2vl/c0mUsb1iprPO7RI+XjYuLeeJd/qeSogQuoqagggcSPUOcwVy1TlOqmMfyGHdNF95iVVVXDlU2HWeRWVdLSxw3ea92iCeXhmOsOb+B6hiZ1ePUVM5LKIEfb2UUfJotSx8MVyJD5ema/bTLG6swa5o4fQufz4lMRTJF9s49VYdnIPtG+srEZm81XRT4tNtYgPJZzx9Jn1UsDB6l4RehIOanZYmPpnCq4RN5g5ePfdd32XiAoMEbZnlElK3iADOieXINQCcOl0XUlL1BRmLAGy77z1Og72S2pajt5eMrAyTl1dOEnm+yhSuLwTOuuimYR7NYYmzWso3RJpWuuNzho0yWGxDftNikRPj4rilhLHEThAL3Q6EI126/B2jFy6jCw/XnY/jC+3e+TsgbyfhrUYdX0Jc313ud8VAT1sqAJGMljt0PQ/Y240iwIDbY830NI63gO3y8Doo913MLRMGoJ6MpNoJq9+c25hwFps+BaDbM7PF4KKaVKqVwbEgduyliqhPIkP7Wx6CtZONlTYkqlcNNAGNpUveiDsinNF0IfxC0D6Ron9I38UTVVgz7yeCZID9NhY4o+clMpnGSjJuojWEeIDZJByoIdOGIDHb3Dxs4+qJnxyj4AGzv7yNMHGYbBBQpmjE60Nn3XPwqM/OKmB/PVaoZfoC8w2DMPRWClIwwmp+gjTuzDYKPpHPgNsDdL88LQwrhGLShSh3uxrQGBFTXdiq3yvY41OpKjYN/4K8DfqQzg4Q6yo6Y3BXl43AsA+wMutQY+ENDtA/QrxqAyGE/IoP/rAoID0BFV8wbvHykDtbfQdXvTNwcNZ03fhTV943ZsZTBfLAOqcmaAwzIIGKe3FAdjygMGc+bbzglrs2ONWz0eOJi0RnzI9fTx3CIU+08iTMPzwIgdrEuy5jUnOXzERFu7HwdSBhWDgEeNbevzrMk4KR1IcvA59wqE8a27+6bvdATaBIj8LlnJuviZ9ElEyfStPKY2Hc8v6IM89Ik+TDLX9IGBUCC/UEHY0EJNj6Xecl4ge311AtOCOu9vRq75alwGWDmsYwOgTUBo/0TE0hF82nN90rmjD+cDXW2wkZjEzQwdPepDnkrc6kOzzhHefqfYx9JH8Lqqowj0Bxf2ATLbySAAG83nEJ5xk+oYOm1CXThQP5SVCOBtyrqBshIcOP/XHOAbvmn5QgZxJgMNGghrF7rEpORkjVMZOJsRB+0evFjesdl5qG3dafo+l4E21ysO2kMq0e0tfY5gLRzWRFjjBAdXzfVnMuhYuyGD19jbBgetdeOdrucrTQi2zBhrs0YB0pu0oWaBDnU5EfKjUYpAB02RZ6uUZKhQjcRR62pQkfSZCwO2Rf6QP7IjwPk02oMsg+g7ZlmykqCs+BWiQPaPrLQyZFy3XiVQ4uKm6pHMrcBqBDi0qN9hNo86oM0T0nWsyuEjvKmPERJUsI4C1/a3QBzQ9B0D5Ldv+i7q6zUYvElg1QtlinodQF/JADMo1Bc1tQ7ld8J8jA2iT4NawCF9l0gXsYFVpQr2MQgtbGhwbqBYFZocB3VkcJAB6wX9b9+g+z8WbexD6NLXauD9XIOayEtUYxiaR2F3tznWPcwozBvLgcJp6OsbW9k+yq+9qR8HHn8ZismdTJfeQMpYYerrIu/NGHxSAFWMwDXyb0HjyEdtNmOqrCHGBZMNB62iAqYyRAbJtzBsbAFx0GQwjAxGRAskh5HBCC+D6DKg5BDImic4uMaaLCxYI3UoDuQ0iddFWkAGgoMAHISQwsnD+1+vbAQfZIh4H2ITvo9b7bC/7DO2t3r3Nelpq6nzydluLr6PVIk+nE8y6tzZaFznf7RJgTWVgxOCbWZXQx6b+TbgmiNlW/QZOcy4aLhfg2oO32i4SHGt820X7HTY+XYIkntCP+dyoE33c4dl1yBqGt/38zkGxT7Mun6+aeiLYJRi5Kfzmd1guh3C0NH2U6MP4wd41KEPw5zVu7nZX37YA/Gxm8N0rw/3xMI0k8wI7p517QMRsWmqnvAnZ4M7u7QyaL8dBgf+t+Pm27CtT89AZMi9jQxo3dGnP+N3mIHyN9zvBwKVyaPf0OnAABlY8KgsRvOR7mWTtQQkZNGxtrN9uy+soEOEzf/ZcVA872Q/9gPNGl7nY4M1oGXusDbiCvcXz2x9sev5SlNGwOZ9DVFVBgYmhYmmVOmaPKOVJYdR/EN4rgSpbzNd82l2FGa+IACMjv/cJIsmKZsf9x78zuSXMlyib2z4RcLWRwVuNZ9ruOdonPQBgRZmPYuu1IfosldNIXAbSt9MPWiTsc0Gwwu6S7Tvc/04CN+kDb+G6iDxu8FG3pGiENNXTrCKqx4brbG3AV/omyf24ejDzSH/dOhjHvoYWP0D2S++M4n3Gwa+lYMrNkLfpvFdtYn+AKsQV/ax21TaayoU46NBlip8tvEd5MxfOEnjcfuG51aFw0/8Cgqm3sj2W5YD22DJ1PohWiPaGmOzBoMYsCGBZW+0ju4PooOo25tU2nANq4KZn+TXdF+QX5UdGbCNPr5wwHpN+7X31lqANVX69DiIDQ56ZW6Pg3GJtYhnsdZ8LOH+5gMGbg/Y4uBjrqeDJg50MDs5hCWbVDqiEeQbWvNhRCkddmjfVP34pMa2yW+NpVIfGPju38Vj+kZufkkfOJ0AA981VWeJHhpsa5Q0fQMOdk3VSd/aRI9PbSTFY7JIHZX28iiO5qugq/jdOMAw+jgMnl7GuWQAGzTLvhwa6pyOCkEGE2SQ/CpgVAZRx1DXb30OewxBS0zg19JXRxzDYCMUk3o0CpjsDcoms0JMJl2lAwyE1iaFCYViI+0DRWrtt57cwwSAaEn7PbEP+N6bkTs2zuwj7TLvTcYk6NnaNGDHvdVbefMPd5z5kt7wjPw63rr/2z0kULpvOqd1w/u1DnIrg/wcRs5XMkD7yHu1Bm6yp+vi0Y/aJawRsAavy2tgIMlOsctgPCGDx7r3mr75rd6Rgb04hMC3jqdfg4d1evM14ECSr7mimQAZzIg5GQfafT1GJ7Bo4WPpnQzK3iLlfCWDLnvtbX6/6/lGcDTgMvnuTI7RmTUv/KkAg2TFhSuMeI91sRdmvUCNgqRF46zPTl9d9Ph20sfvuBnHwLXBRXRHmfxCMDUixECiaIANGIWgyQ022Hb6ju1qgXYYfYiO0EmQPmKoqAwo5RFncCxrI86ACXTlm2mBPpABObGFtHUeTqyZSic15iu/hY2s3rCoGjYwqSv6Sh9EHwRdrr8jSOdeHzlsKl48NriSw3y2qqvaB3wSXtQ+ENcNf6jJLvutfQg2rD+YHRsOk+2hA7RBFhXTbHS0b0J1chZidrokW+U1zvXrMdTX5WoCzb1Z40wG5DdUIaLfjo2xx0vEqT84k0HckYFprm92FDUdJv/NdwbYKmItGGte5zvZv7zh+UwGirV4AdbOcLDDWpxizTXcHzIADI0t1jQWgAJNw9/7Xy985cBkRkAQVHKEaDDvZGUD7qVCYOSs73gurU9YreAJjxtaUyHR13wdc0YR+QBSpFcBm1rHolUDK3AY629o4Bo1Jk0Dgv1BssAAh+fDrH7pCPSxNtlkqMRcgVMQXVOJS9kHzNcdix6P+lcJTDYQvhUxACdghKVKLEejY1m3IIg6/oZ6yOPMgfSJLta0ixigoeYLqCYE2QU2VWO5CHsMiN8MmGo40pX6qIVBZuj4CkdkHykNsQ+MSFUEon6yD8AkObEMDDf2kcE+BMRRj+VfNn0LjzVMG4+bqCqRoUrsAPtRhZRE1m/5YQLY15CSJitcl3O5fdMteEpZZCWMTh67t01zDtmfcKLqCspAgOCegqxkGGVw0fQtfoiiGbLpeZCC6z7GNxkMlsEENkgGg2UgaZD45J5k7HCg7YWuud7hoDB+hgNdl9dwTd9aN1AchJNBB/QNrHUcnAWSHWvAusWayCBYBu95vfqN4LXz1K3abGcfMvvP6ZZp+tZ/Dbrmm/xjySxqsM4XDIgdfZMzatrlab4R2Aw66H+Y4fYWc6P55IuCCo2rh5/PTDqFli3YhqO4r2sbTrfzDXKO7pqiI9hXZT6uOKXSxMH1tz5HWTLtvoZfs+682fTt5bcYnPyfTh9GTvTLxYgAvGtoxF4lcixn8ddp8PNN4detu/R/wz6szs2qtvGdG2KJ5snjrJDbva6Mufnt1KncK/PNb4ez2wZ+r8t5403VO7355mvJYDC7GjzhbPf4O50OEBu8holL+C7ec35uTmm+jnD/5IB/y/WwGApgm+QgGOo6d3KW/76to7G959edp2vcpSW29zThNTKwwU9X63AMnwRO7OowSXP73vtcL6w0DShpKuMsgftN1U7wZsPOZjssD143fVswRGzogyg2/fOuqfX4xFhvuKbqAT5o7EnCaYOz7loNKlrDN30nMfYIQeabbVjTZApLZMDNlhdN36p1A4SqVyJ97pFibnxfmFRnv8KSmeTfa/pmMKFIK0Osqqk0faM+EFhN6aCPWepqakMczt3No3ICxxSu6pd6eIF9FH3T2O9V0zfOd9L0PZG+vR7K3uY1xketlToa3WbOG57dGqwkXhf7OgzWDJ73gYosopjUB03E7+ZPpsggbUaw4ZHQBIMhP9dDQAaxwZ/wlrMInjsJkiQkn6tyGGnfNAOxuXz2S5rrPQ461mpht8a95vq5oeX6AYO0rRnWl8QFDq6w5nDAexT+tL8CiGTQLtkF3FHcOmb5gMDpBUETKFMae/HsFvcI+8bZOG5gZCk3qbkvIkF+2vR9jJOSRMn5+EQnctr0TTXNGTiyNQHiUQPNB9kxeha59k3VAfxGVOmVVok0ONBDazJe9AFrVULeCQv0sW2qvmj6RoeA8cNUGEDTd4ADVMCgI1p0WfqE3wn6IH7hM+ka+UmNlQuTUBZ3D0UQsCDIa7Cfoo84sQ/UB+igN1VfPxRxah/5/YZ9FCPn9rH0cdX0rTsw2gfInjGpMjU0A331HrOeQVs/tH1HjWAX8OJsATdZlV9/iMHZjJeBfbABlpibNUKxgWUk+DHqT+P/5kvQPiz+9jKIjQwUk8/IYK17JoNdc71veJ4dazMEa/VbxBrhbWjzNWCNmr7DrLtvLOfm68ZGymCqDAIYObM3WCMiyI7L9vYPWfC7z8Dxyhp1D3CQ8pDY7R2vFxzPGas57vumanCyS2/aW9Mi7ANs2fvjmqpXfAtGfZbVg08/bfpeAEVaFFjHwMqahb4YhhSmxYl131RdmZRt2sMdHxZGB837kWnQU5rwufJA4GNQiE3Vk/hsTd9T6bO3oKna0Yc/FmdH/BYtHHSd6KMn0sRvzecaOv1DEWcZ2fqztY+4so81zzxUBPTlp9hHXNiHqjzp2zwUoQPVPsgfOPqEtbbITX2g7kmmyG63mbOmb5Izbu6yRsgareHerFHOX+XXdZSVHLKZjc7DYfxcBvGMDKTKkzE3kTcqsXX+WcA2OsjFZ99veG64stPtZdD2ihMc3MXaddP36x4wUBwseTcckJjBX+lAh7Ub9nYHa2c4aH5tBslg/3DH3BYgvuT1skoTNn2PaN/XLWr6HvlrcIb9Zmv6TkHXE2mu6bsAgAo41m0+fSQ+6PgsA6shyqjUt5q0pek76aqgAnHZlJuyGkWfRFPlhAPmwzS8ZMXVjKiNTbkY8kukS4yVVIVN3wcxzO8hA2QYsBGCDfrzME3VS7+U+a7/qYCpN1U//pYVDQi6Q9XKkWTTgW2qHpUUZOBCmVGwfYD0VbxnD0UkgYNv1v/umr439hFgH5cPRZhGZjJVw0ijyTSIStM38asBU1Gy1c0UjDeaYVwFmUcC0Jq+WQjrt1ZvTQQcMOFTvYW5lXg4oRsdGX1YTJqkLze2nA5wSk+fSMavAcQwMhhGBgMCdeDbyiCMDAgAhRfyEcGVXYcDksEK2EHO7DtD5AHydX7AYQ3lHUYGwTJgnV/jYBf45X7V1t3goK2hQSPTx1VcxpD+dJc8oAzipgzsAwZh7C0qUbAFiC98vazShFuBZugoRMTjZIA9xs38G8/Xw8f2guIJCkLS9Hfrf+zmwCN7U/XYzMfKwo0MbyrJdlX3llwVykG0n08CLdp9a0RTk+7vS/iaCNDudvx0jt5HOVZGgMoMM5+h72jo1JCx+TTTvKlN1flfE+t9J/qY+p9GwsOJxujD0GJj5WFFY+brv/bzjT5fBg8X9qH7yLGunY/0MU7mq4FM3+zzNWZkvsEErvmcjppk0vmO0zVe1/Ttx23XGPRjcy/MvSMNW2/v3/x26G9x6+9feD3XXD+HabQ2U9jma+Mj3b/sYPxLS27yt0Pmu8aB31g3m+0w9j+G0bn5qSx8jo2+hqdlsy7pnHEwDIZs75A7+fCqCMXaLk7RpH/fH2dkYHybxhEq+49qBH/Z03POAKOazlr5Un96enNmaOnK3dRUiOU+i5aI0D0cDIOyXigUtGicqhtB4OKjBtdkbES1kUEdxcGq0x0ruGhEZAAbqRbNfHVB6esZSX8p4shyfM232QHm/hYHtr7pW7HRGInKwOakHzN9+EWrGypSOiosefSy806o5/bhnNAt+8j52D6o9J6jhsUGM5qqNPTJQxEr0nbZKhtGe08OHUPhfEb2fK8y1/74uvM5ajM1PkK+N7s0uHLmJkmbfQDikH3fn6yCGyB6AI02GJWoBON6rdFw2vj1OLC6DLbVcoWHDEAe3j/DqgMmEWz0YzIkhXsoHQ78Gug7VfTeCHdN34Q1wMGZP9i/5bpjrTESapcXzfVNu6a6thlJQHByDpGB4CAAB32657BGGwSIBWXwUdeLG8EXKNdpFWaiB58cVAz4Odb1ViwLGxI29F42tU6kqy7cV6sCafp71iY7BhCJmwBslBP4DT5qoHJt76quD3TgB03bJuOkT6jGkioGGq4hNoLow7I9CwtksEB+1vQd8CSjbaqepPNGMvFb2MlNioXFysyjQuQXjuKQ3/DZI6k3gnRAzaUT9VEbFwMric8VyT6AjfY8ANqHKu7MPpY+xD5C7SPhbOwjlA1tZEb6Gsi7fSC/cjRa/IaxX+Pwm30gv91+24MS3fiNXFQI0fnww9gWhvdNW/lF0UQmLaLgB2HUBp2PHQc+A3BwLoPxhAzUl9yRwfqxtembzfVB+j3Hwfp1+Tr1nc4Wzuxt3pLBukkNz/SW672cufl6hzXwQ/DutfVbxNqjKlkTreeaA/S69nHFQb3/C4+be2P5iC4DXGNh7W7TdzZ4owwEB4+Ge8RBfMj14uO5bMySAFazvur9gZ+nIFd5BzZgyQpaQ51GraN9ARAJLRnoBKwhTd8UMGGVJZi+KJCdNhlH1DxYoEEntjaGdTZvm6rpx405ctAi5ltN3zmwG3/ymxurow8WNimZ1Ye8B8udaVekYfQRO7wwIkYoXibB5XHnyGGIN2n6Bp1b4MMiHABu7OOQPbLb7WPNM+FzYx9LR6GLKH2laocNng9796L0oPpIf3CiDwjOmj7wcvhzGHc0D9QR8/6yt1xD8J33nmz6VjyrPjAGJQx1G9TqXWKo6U39kPedH9XwbGWAnyDn/b6wl7OnZbcuy2Cc4IBNYW34ZUjjWazdlMG4kgHgQB2v4kAbrR8/xf0I9jXnTzc4UP0+85CFYu2uDD7iel2laWUF6FgWQ+kIQAoS4IyMUaqSs7YmfP9PzecyBYiW9daxbqpzRewZ+DVPFbghtDdph9AHhhRKFl5J3wD6iuiaD0vtWMHBVLSYK34nibb4RYoDMrFgo8lgFOerzZH4hebriVoHXWJS13Qzqsl4bbapDyJi0VWVnP6m+YO7hY0QfdDCAYIRfSzMwvdqHgZ9tGAfle4fikA28pej0MTZFxM9UoDolJTfVzR9L/tI+8VjDmwe1h8Z+4C1cAPP1TEwUDvJjabWaPySTIFmcLgVbAE2h+IA/JBdV/TmsBFa7ahqIdoY6Rd0GcORgv5AZDDWGpP4btXAqHE+GBUZoB9aNFw016cMqLl+3SuMOzzThKp+Q4trTegNz+MUB2QLjRQX6PYqBldUQmjRhmdewwVqlBwqeWBvu2DhTAZGqM/LwFRyQAunOMBCShPgE1hrOAgjgw+6XhA0jfafLvRoL8V1zZaRUqLZ14EDzzf6Ijrf2riJPNPUOh5l11O+1nzBk8J2QT+9E/hSuRb46k3Vo8/nsgPH7wwz30l1aeASYzOf0DOi6SdpbPIz+mhimGCKJYM2X2pAh3Vq2tKW3P6Eoc9gxmY+zdaMHbjpptGHs4/ZcTDMuj2b3PC7YlJymsb5zOO+c/44bBx22eTXdTRu+LhJQdmeX0fzOIL7FiS3exDw0rrXv/V9UO5eX8O+gXoaGzHN18M2Ws8m1HyyV8m7dM7BQcf6mQF9t4/hbebmW9Fx8z9mu70GV1XO17hadzGseeVQHIzRcDBwII5vv+1rrKvJwCiyN1pTeH7BsL+6zodXG2Gy62PsNkEr+2usPYOD976eP54DxZt9jTPOiHBHIVnWyF2mN53VfAN8UI/abdQ2wtM3ewaBmXP9WCseVbGZctNVf9tl6ZOm6hV5S2bVfoy1crjXkviVaFh+la6qrtV80HAK67VGV6QJhWCcAiWZx7q9gjt54DCMxFmTsc7nbnYR7Bru8Rm5O03fiZPNsAELp61siZ7wninfcN+abg02iN+5gdAxSaNPsYHAmpyBO2yYqr0JHnSNaPpFmfYjCbcuJzr0BZ/Ik0oQbmgrVtFeHXpNyTEe9tRco70F2SQ+688TLXhVYSPIBun1I6Ij3+TeFNx+fKvheZQM2D42GO8gvzCGkkGrqjSdD+eePQ5O5I3/MY2TMLtC+kTyB3KZ1AJm6mucymCrc5c0CXPE+2BS6LeFgzsPWag/2Df6hwHqc1jr7+FCUbls4H2u5ytNMzIOWjpIEa7SHNwcZK3g0GY1FK/Nid+kfZQgTSWKjoMC9AFiRMdGJdxpaFnKxKMBaqqG9xENUPKiDy4CEWYikzOI86bqkgKW6JP1Y7MlfsFHZNxqSqWt8XPpaNv0vWKYddziSuuij6ZxdICgjyi9UFA2RR9JE24Scd1kDLJ3MjhruOem6o6NJgPBhg6jIwS0DypdMyap8TPpW/PNzi8GYo0+UPmEzTj5RfoEG2EwSQ33+AJW5BfsN7GxsQ/gd2dv7kGJ0hECIbycUxhsW5hca/N1rQu2CvTxpscN2bxZIL+sj5fIYN0sv6YgD497EUz3dWCrITJo9hFmXfWxZzbTZdAby69lULJvm8AGa8FyVv8C9tF8BPgDtMHzpm/047PjIIwMossgcr3Cmm/67mugPLZN33PmW8dL5wHN14W1CW8sXzhALCTWpsEaHMulP8KYImnp9sZyjg+5Xlhp6jTjxoE3qe8FgIB/owbblsmwZNLRY4GGb3HWPGvdog+MXzpibcNpYHCB/Br6+GCfnGtr+oYNbtf0zX1hyK9rsA2hz+gjg9ATfawN02WWEsHWJlGyR413WlDnqCPAC64Lmzs3YLLs19TagKkb2wAduaZvripVQFn0GX6n0sefRZ8+FNF7L9xTiQ4bpCPiV+gbaQJdH6AlDIS04hhil9Y+BBtb+wi2D1zj9M3hGCyf+Qi7WZRMnW1RNcE0xC45N3/QMv63bXg+k0HckEEP6LqTcL5knsgZafbrOgxtZBBBNu1wsOTdHljgH5Ne7sjg6QcMjM7PcIA2TX6csCY4yADh5Q8YjA3W7sjgZfa2W1dksMWayACDOLf3qH4/4HrhP9iLjB6ul7jXbA7uYJNxum0OKiJMBgOC5vlQfrANgHJqPo32INtcVGHT91ijJim2+A2ZT6L4pI/XTdAmSfum7xVYrWyE+nAOIXDcN5pusMRQVa+lIcyCRmYNlUWyjohnCforU4BBQBfkIeDAEVD4KoEB9KVWCRvoENg51E08QsRMBtfFpu/UBxn9SLAhNpi+EjXFzYMxqZEuPxBQTrOC/XJaE2iphyKYZU1kOFboD0WsgRlU1M2gDHnRMiXYCmMfQ+yDgil1uK7ZF2hXm4ZFpgKQ5i1dYkYx1LZ22AB9YBCFWCP/h+sqEFikElwO8YnrHoWqMJ3Rm1mjydyswe0KWlEB+kQGVLAqYbHsSb9GNUNksMGBBvsOu+SIkC5MNqXawesCG7q5DyODAXSRA+xB8nAyiO6H8N1L++b6pXPWr8Pa2GAtLNb6U+WKNa50p1D5kxV8LoNhZHAa1IoMdN13vF4eNCUD0xA/A1h83BkjWuNiLKUKosa1NHZN3+2XY3T6dm+WHjzpmIYUsy7EejBfl8tYjb1DJtSmybVr4C0jkhFxq+E+YjajMpI65nOyH6f/uUjuot+t0gZ2+ZmxK/a7Xthg0nRpP0rvOs7oIzdfWbfNZ2gxDfecheK6sqxbd0QHw05lbT81wqJAaT+ho8Vaqb05+98osFm3TOS3AktSh2n6Nvqwdi4Zf0QcTdXChmu+dvhzTmJsjNULVW65ezfBtllj3rj3WEM33h0OjAyu6NsEGk3n23vrC87Xx9mNPEYL8mw/0owuA+cPNy7WCMaa1lQsD4c1Y2s3MaQJ/hIg5/n3mutHeBxsfY6ZUOsLfbph+W33tvp93+tlbwSP4IJIgLCbk+KSMJ7ZooBa6XMTOOlbAjJihTHjGLhvqoaSoXQV1nwaoTt+5RpQAaD5ILqfRQvTR9Rn4KQZbJ21Rw/4dZ9f+oBqhD3+ggoUyt43Vgq/XQSbJuizpmos4WJ1a9HnsWHjkEYfVqhWUnbR9I1kCSNaXcVmVcVG3pqxtw/AZDU/nzQ3i45ssFlsQEansupZdwg2ArDBlQexj7hhHwlrWOPYCai6MQqyVQHAvpPiezjmCQhTJ4Jx0uybhTZ+AGJ/PII8SrV2CwTA5DEeedfjkblZwzd9q6ydbUXHsxQYH/brm6rdcTiBnGy6RvoYQ6oq4XClrHEluoHLrNLwDLKNiXj2OAgYl7LAqWk5chwNaw4HvuG5Yy3eAGuIAy56m0ZrwlCNY6JY9Zc4OMGaHoPG6DjABfX05j2vVxzPmaZqcO7kbLIkKGe2+dNZAQcvEausR2Vd2HvY4dLAbVN1NqDDxlHzmSZPwAHTN5JOCvyyLOobCFfk1+kTfpOEKfxC8AjBVm3ovMmSPsjpgD6m6CNCdLRo6k2j+bcB+hBshMogJmFjNB2B8zLYoKzVYKPTN6ICnC77MDry/LKO9GE/sg/EJJTK9YGAxGSWyrEXUOwD+QVsEL+Tlq0gwNkH6iOYlgBslKTEPsCpnz504PgF3F+/5Rp1dAMHDWtiW7CGa/ZF+cVOv7SwB8LuIRDEfWGcZjN2NMGvsQxUCLvG8mdksKaj45FuDN2m1W/ovjAD+NaG55B1FbuCA93HgbnXPGCwaNLG4xlyynEiA36b+MH3lIeB5jwK43wsvcw/ZTBDmq+PgafN14C1Kfa2afqOGCTzOzIYT8jg3N74KI5Pk47G92bT73+94t+eM03Va7NdDmFIkBQVSXJTF4K8LmywHSGbKJHCTd/qKFPoK+rPHiGT4WFWRYu0wBl6fxx9x3aVG/AoWsSo1z1sTK35YNMDGjpgsNdkJOAzo0EHjRmelT0EWFSlEvpS12W7Y4MN1lHNE4KNfLLrpOq12BT1Ar/FRf37cVJVkgy0dO7oK96wurTVxwq2kEDgk3sWTpoeI2jy3UMRXJ0w9hFd9tY+1udZQ7a1X49JfugA9Crz9dcLRLMZ23RrZW/65Xa6JFtlrJ3am8OQG0iYZJkyLQNowntnfoNlEA1rS5fB6wZjN598NM3XjTWCC2ze0W3mjgy83w25d2KrhLVGYMfaBgdxgoMrrJ3JQLEWL8DaeAHW4gJr064L/mB6HMQGB1ktn2f4O8HaS+xtza3JzDtcL6s0ZTqAzn0aIMOrBMZy3wyeYyDLx3xfwzAyLlKkBAxneI9hsElA2bAa4CpqrUdpFxFMQ54/U2A1crOm47MMrLCykVSXzHCTpcfKMXAKomsqcQnyqPmEeAxgV5+If5XAZAPhW/mF6VsyfQyY7cdAHwZRx99QD9js7pq+kQYql4Nn0wxqJE5mZIA/QB8os+VE4G8VMAXMh5osHKBgiut+rIKvEqiGZ7EPwUTzJfAdXyVASEP7yMBQ9CFBVGajsbEPJGgiHaN/H4suWKOLCmTAusJ1o63bhYDHwGmr8EOV1fotYa1gatcA6puOkDnf8CxyFixh4MdvNjcyECBoVQnXqGED7u2avkEGDmwBxpC646dDW/AxWAZTcIDVrGrCRwWKMjfGMLZ47j85a3h+DgdrP5iyRiWCYdeYQovHAQdMs5FCcr7Amgbnzkc8hzWRAfgLXGOLtcSQ8/M+ME0ZyP78HterG8Hd68zHGI+SHg88BCrRuwmMeqAS5s25pjy3AhAaNto6awPt9IUHivIrNNq3Ksew/ZF6Y0Y05iwOhrvf1/UN42Mz3zXidm8d7/MZfdiG++Hn0x+PMPOFmW+a+YxBDcPtWnfgfNEWocyK5NdlEB32XVTotWjKLgNHcp8v7DVuDLSt+sMZ5iWUH8NMU7W+5XqJqo0bPfF66PFaLuRUT8a5puphsDHGPfmFwUts3lh+a7rtuvdksN/sjAxkY2vzngUntL5/mqm90804J9tD7rCxeaO6U1zD2kbODgd9YOx+zIM0cc9hIoObOLi3bnCAizKQqfYyqLUGDsS/WeMY9t60wzCr6jJ4LvZx+Hvf61XHc3rTHTW0pm+TgW3BoOXa0e1kVWeGi0RX7Jpl2oumVixL7oAMBLijEHpkPAMT3QwApVBG6iVrKowRXT0A6GmUbbacveKx/sbCV0GTRC/o02wflEllbGi6Xbyb7Jz4lSSf6YNHZxM75pgHMYkBm+gIK1WkLg3Ag1lL+xCi9SWV26bvO/YRO/uY0ZB2ZR+L3xc2fe82s8nGkk6VG61Vpl+i4Vkz7Ollb2x/bNbYDOyYVJmGP45kOzrwuWnI7vKeDYAoAzIZlEFs8BcO49OB3NoMlTkTk9xc3/2uiI8wa2xVsLbDwWua6+/jIGhgr+Zglb/WmLCWh1XhoBmcSyA37yK7hTWZcJdoI5pahUplEM43OZvuMgCmxF8hDj4mcnpxpYkbbB+c4FFDe1FXGhKX5FRYmWktZUPRgIxgCS0RuoSKRgBNgOuokJpaS5l0c8fvQRM29C7jb2/OHbSKTAxNxpBAVdCFBj5izkYMCGswfVGHHLgxUH/ZZFpok0ccS8EGn7Lo9LkfLx3tm76pATgr/puKAYh012C7aMKyeG3eSBfqvI7imN+16WF8650ECSaCaGpN1aiPGIy/9f3MPvL7hX3gj67sg+z3xD4C/qj2QfwGzCukXGCo3mPWFoH6PeJ+yr0NdgEvzhZyEzB43j20wcO8DLpNb2RAejtk0Bnxtk++jofrGs0fwBq0Earilu2Mt5PB+brTKnPsZED+pWDf7OMm1rj5GrA2BQfQVE1Ym31fGJBor09tLH/cczKYl3IuewMZXGAN/9Hdia/mjj3WIjoORn4HrIV5wODQ51piynIpA1pjrTuJrI8InF74ygE4k7VN1ZDVwwYHnHImHeX3Tpu+IdDQpu+WZWB1qdGH8wktTgewcfSm6sqot03G+dmzYdnOMxMtUbljr8lCA8eX/AYEDabxTpiDz36rYov7Td+1USu/Qt9Qfo0+TInLNpeupu9Afl3VCxZD+oKx0fASB7+CDQo8c56yj4jY28f6FPsIZx8i++uHIgjkTN9cn44+ZW14OBOEjD5ItmbDRB0BfftGXJEzJVAncNYAQdZg0fcG/k5L4aVh0uk8DMZJRYDTebbuuQxUzkzeyOTl/C3XUT5WHYL4jSn30hcaHHzJhud4Adaum77dgxyN6M26XQaEtck40A3J4eAu1kKw9qb2ZnXuHu6I7ou3WFNYeRw02edfN1WOL3i9sNLUj5uqSbs3fdPR0VnT97L03KyhhLlw1HeJpaYc1wKrRVfSF8d8GFUTO8fHyL/vm6qP4Ws+2uUjEHg1X+8koQy0i8oIC/YtbPo+iOGm6kMGOeHEHwf9VP+cuuRNoOhzPx5FU/IOfwM95BumwcByPgmY8CWH9CbtDJig6RuyyMqMAIukg9nESw8dgI5AMIAd1Aca/ZqvKjjU5N6cf5zbx+I86YOHDpIUw0ij6bmmb9IJqcjbB/LbZYo2w1lu2v6mqZqI0WoHQlE2Yw2YOMgLuOeEbnQk+mgVEFrXrzFhDdf0nes236QB9r65vsiTNUS/KFqSwTJMkcHA5QUaOxxQULECdpSBNFVT0gXzOazRQyWENQmcCWulo4bxGzjwgV/5ScWB5kVnOOCgkelzAc5l03fCymHt2aZvvwbTIkFydBk0rJHOOw7Ylzhi3+96dSP4o+m7BLmkkQEMDZb/xjIGyq2tMs2br4cZFaENgxJe1P0bAep0DZ21EtHiVSeB1uj3xuZn2+oSzddl7N5kvAKLJiy9NcLMZ4g8a/oeMp/yu6xMcG/lMHWJjT76+WWfbyRBu+kfwzY22OezKDXzDTvbraZvQ6B96GAaup19zH5/2/SNt82QiKUP5cPJwIlgoyMLwM2EU397vS4er+O4YX+sdm7WutlUnWvIuMbyEryHzSnDd5uqH/8ywbU/iI0vmfaew5UR6Z2b9p4kVce4+dLpNmvcp8UNu5AB+nWyrRtEDy+D0zXo9iWgTq5hfeWm1tDpc3HApb8a93HwztcL/8HeG03fWIrzKXOWKrOyBAKhrJf8Uj9qqOpGpGfy0W5lKysDyynwagEaVqpg1enKnPbHTQYST1cRxItK6OsZif93izbNtC5KdSQHlpir5Mr0ASfJZ6u5UuVwYaNlZagPqiZ2HeELAYsN924fwAYK1VVKTTbYcprTm1jGvvFQxAYbZyrXY4AcnZDYZKtYSlgVOTpW2D8UQVfTB1YwBixx3hB7djRw3fRdE7pAkGUFvYyjy76fSBj/4tZQGYR50EQqgfUT93DCJoNuKgCi4VjENtevFQCL/i3XOrWz6c7IND/eNzyT2roMzvYK44utP6V1VW2bpm90dg5EyvATWEMcGDZy/C0ZBP/47KGmLoO+R53aecrD+A3kBPduhzVj03b/aP5KheWfziwi3vd6vtI0QTBnTd/od66aWqVsn26enCJ6ax6ZJdqBYKxNpeYL/0h0wHRRgdVpk3HSJ1RjSTWdQ2SJMblI4DO47zd975qqBxuubaoGGTiSiV8M6C6avoGuCOR3dn6zfN6zR61A7t6kvWhihzEFWLDY0gfQhOLdN1U3xdHN86bqE/tIOF/YB/Jr6SMQQYkbNwngd/Ub3HooYkRXkdoHNvp3+7UPSpDNhG/6drg3erOyIlt9TcMzOHoiuWjSXplm07BGras4jYaN8YQMZoRd90wG8awMjI9wOJgbHKxfpwwMDnZHcs3enD9d9G1ljwH+uQwy0KDm6+ewtt6GvQKNGVEN3nPdm+Yt17PkAThYTdW1rm8s7zI4dkLQ6zz+jwS4QK5YS7o4pmkyCPPAEb1nrzfXp+JMcz23KhxYW282TzJtJPVFr6crTQOk1RrqNGptColYyT/64sw8Au8piMgMa6Q6ouBNthcYNkKmxBKc2HII2QR93KOsRbJSYY4c9BLLChQpwH6+6Tv5zaBmn8Enn2NckQwb64k+0lMZfYTHRtNHKF56UOvepI2BWM2zaaKUjDHpM8NYRzNJ6vRxVSkSG9EcG+kodBGlT1Qu2KDslXr3ItApkj6yuuTo059e6EM3H5yn6dc15usa7h7IdxpcAbual2FF5fot177pu/kr1NVOBmGqdwtDG1vVRfrDMQZrRs7dfjmI28v+eRlwZaPjwOJK1jjDQV+XZXDrAYMJMgB/4HBAiZTBWvOTDmsvkIHFfZStOhwo1uyeYn3EOF/X+bVxH2vzBtbu29vu4Q4jgw8ImCJe2dOUJTgIhDhTwEhx/R19OhQnIVqtjahFEBWRr79RE2C9WXopds3g+kOWQoqSoCzyCGjBOeB8ELylgicbIdGH8wXQN4A+DyL4C1RylL5VORgELt70ZpFMvNdaVaiApuo0CEwzogImpEkCq1XRWBgBSclGRHChYMo1VVfwE5EBWgKrsJE0AYbUX2SQAvJuhitEV5aj5f4KnlzTbTmMCM6kwnwHfeSGKfxq1IPBIwS/tXFgEFpEa/+lXgPWwGPoNV+jOXFT9Lm3nTMOhg8kKWCvWyuTJmyIA2eHW2tMnKQUYmWASTjrfJINDuGHZEB6i2C7FBk4UKReRQbor5YMpOF5+QbVeTNCzJKMWHQNPlrya5zhgGxhw/q+4bnj4Cyg43XbIrSGw5qqo1VUYm3k5esC6TJ45oDYyIBoClqj+TCR87bp+/Q1HrDe9kEOjwNtC2EcDN7fcEIYOTZYszgYj0reR1yvbgSPiKP5+AYDEgeNfivCCsNElCPapibhVN7cFZf6fHprGPpGn89lB26+Gb230tFnjhB3Td/t/giVABfqkL4mgul6qik8yZuzL6EEPuyiLzQub2DQh/M5SjYNxaqPvkQF8iTTDX0qUtMk+0ggRAau6dbxa3TknMKYx33n/HE+jIqRPqOjew9FGD3aNbze7ujcNVVDSbL/VjYxd2+0+WafL8wajs7pbbDrvKvkgQMVqlnT/thhzZBqdXTvoQM/4f01LK5euMbDvXSG5266Cxzs1+0BxDTj+rrOp+383I29bHO7NdfHBgfWD+2E9TIZtFtbHNxbw417SvZzm9998euF72kCBtLPmXAcnBEWjqqUCmxfNRnjRC1zqQAHpe2zd7nmGs6ZKZb317qXTd9YJ270maQWADUsuGJz/DWLXyjr26ZqFTrcIhFQdvS42yq4Wd3AgbPpvL9/acC8MJ9uGhsd+X/UVjJdwEZXuqNPijTIY9LnqgGgzazI9aZM0sHSkcFGV4QcNaA+YFziZYh9mApUy8SxWiaV8v2GWr/ev+VaKNk2X+M9xYGr4B7rAn01qr97qFWgYoM/s4aTQSECdG5sUNkovQkOcBH8Uftxx7PDxjPN9cPh2ZZVeFxhCCoK8f9v7+t+vcuSsqrO2z3TM8wwPTOM8+nMhGamaXBACKLyJQRQo0YNGj8SRIkJUbn2L/HCxIQYbkxMvDAqMfFCjSZeEa5ERxF0BCJoQCJGZnq63+XF+a1Vz1P11N779zvnfd8m2euiz+l91l5V66ln1apVu/Z+K+8Lxc3AdzIPOv7j/4zR+ZfM+v3i+qteMLgSgxZn8vPCFyseLAjGLteKjzjIg2sxQN5djQHot5/Cy4mv4EHxYerk/xza1ZmmlXjzeOyiehAug08e6NjoGfVCy8XNl40SUofT8eEjAsw29sWlKMLXIzku+h6g31ibY9yMjm1OfavoOzDAx19av8vda7Ptir5nDDOtolK9g1WGP4V+tah6bVLZHiPZY+nEwVb+kvbSTwFDEIQNqD4gFVUb2CVzo0K6X/RNTiJxAy+Wom96KSIc+ArEC12UfjSNCELWfFG/ADWCxhBCL0UAF/NLEbR+17Jo1gfOV/FvrRnmUFf4nnEuIAzBq1G5gTK4EJexl/gtuQkDsUCuxWBeDLkVAymDgFG+DtYqcCMX1+Pj+ky2ofisOFmWKqxBCpi2MVhyj2JAa1+8xKC4NtcM+IPyiLzjGthX8cAty81cmwHEXPPBtSi+DgzwEaGM1+HAVbi2uA0YjOQjxoBC6+ABcWEOIr52zl82vwwxwm8sHozwxb7ksgxZ9I0DanO0PMjF9Tnmfl7t+kJwmKkuqsaIExw0/RUL75wWBm0Cq2Ico1oLh2Qz4oyfbIikHxWvTP1gg5uByUD92Iic9cJJdvpZSQjgRk6wwYcXzVLAhqeHwbqUzMYaz4hZHMAoXQCDaaNpDzr58qneTGWVnFRBWzEwGYKLsyPsUyEp2RwzcGm+y4S66Jv0E0XfpQgVTr5jgxtko0SXYg+muLAHODRUcHGC5Rb+CW5062MF3ZSlghM/yJAvMRS7JRlys6i8MjmPCPLkCxCJYzWblfBrsh05w9CtwZK96+zWYGAJg3EUAwwKk4xi80pywaGEgfLZGYPBvFI8yAtOvgBxkGvXYIB2KxhMvRIPcvE1uGDiVcl4K641OCt71GzW9Vy7+SWLhgeMc+UBBjDXco0nzr/m4vpjPufFtNtqmoa+TNG5AT8DydURh6Cibw8h+BiGxxvUD8E3Swen5ADvL+F4LBeLvucfYrwB1kpZpbmYk9w41V9+WbpiiG2x+FJA5/HHdWqIU6SDzmnO2Qdb3iOc9CL8aJ5hTMxsuIXzQvRLEaAJ57DMFhjgSQYFU9G3T12z4ws7TD6wfpUbuFmUjaPoNwNEzGZNW8KJdtkajmZoapyZR9LOBDcGdFyPKOKi4fq4D7BtZbtWsA/cwFtHu36zw+2LvpcECAZJ53XKzUKszINSGxc0w8cKboA9OLhNjr61b5aHf+GNtyt4ztMo6wgCaz13JgLKiPUm+GINzsi/Qja0KdtX9euK6wkDxasNHlRdrOiiZGgfpl4CAQxMYECy0Na6qFoXX9fHwHptJZzb4voU5BWueeFalD2kx6KpqLrnGuvXFb4XDERgH0GtJZvbLtf8MNcwe2xFrrTxM243/zMqm38Vk1mBlLpYeqrx+O5ZL7k73qjXhqj2lYWaM6ChzRmvg3751skv5TCygorcAhWXz3AF0NvmuYhQL2yqiXSs9NLtUPQvbVQVvk/N5n5upWpZCRY2l/qpx8tSPy/X3dnpBVbCHgqDMg1hj0LwZkCv16UptuxTNrE63xWNZp3TwUSoI+SLSFIWVeu1Wq919lVEEHqJtV+XZe2ohpMLYWcD52t+oJsrlRt3qni6r99m0fehtXAbBhJndau59jmH5Lj026NMQ3Ct49ADMNBcU8ON3X77a29LrurGF4ddI1cHAnXfrv1cXrto8AKCpdluKwRvdsf8lYAVsdplovP3UvQdp9nYQGsRIKbp6N6cGGlIk2uwSjZnjbdT9H0JnMrjFuuKQZnwCw86QliN5Cm7gVjVk9ASnFOf+RQlsdoqqsYULhsYv03DthSx4qgX88nwXj+N/dIPM3JpIoTuiFOZ4kaxkSj6xsdf8Q0eUdQKPCTbiFgOpmFyGpeeWGsSNRdsYFwfeALXxdcVg9yIf5dNgE72Dhz3JYB1hn6W+rECmIbTa2v1WgekriA27q32HQm/jghg88J7wIBwzsPpgtg+65PWluAzn7BN8y+vwYUjMs/r4ke/gTwYOquyXVyP9Ue3YtDjXDAgmzvplKGcPAh5wo9nqBbXRtIF58Y/KVv2wrhWnIlydoUHWy9yqG+RkYiRMFBca4Is8rE4XxMY2PZwz6vd/MkBiviWvZyCQHa4ToEGpzET2XDxQZq6FHlaBGq15jERdaB+90qHfpEW4pqVOTn+LovBr/ckwfnC5rj0qkXVtPHToh+gH3wHZEXoY2HB2Fts/Gvq4Ngc7AEKRkpdY68wcNDFZzAKGFjCgOYrbFQKe0tRa9Ivf9QxcRK6lew4PUJYHVG/ZCODws/0TRK0AxVVAzfKfAeJBeeQ7NEW3Kci2VSA7la5sb0+EgZThoWtV7GvWtOFQyhEBO7dOge7GcjQRd8ccJZUfbavCSKgPYxfAqkvXsQjOcJAraMDj+TatQWP+vcwoBP7QQx0wTOvQTPEGQqeE6/422GMs/RNST9dXG/Cvo/4gsEG1+yyFgsGVPB8WedYguC54Bm4lr/DNpgLUXwtuAaP5RbXRuUaF19fRAj7agzGIa5x4fu9jehpzaX/SDy4/xnJATRLUDH5WOTB+h0DSYwj7IW0mz85MHC1LpKnZ4+Xjr5uUEXf9z1jvBrZR6+8walof+rHmRzWD3QZGCCwE6ETQAr366ang/i1kduc7zT6ZNEcZTqn7SI7/No5Ah2bWGC/nN1IuiS5ufCdHG4+ZSxbdfqZ0dSWfryhusVGtPWVdba50g/sAdmljhsz2PIEjPzysPzUQdigwyBMk/ki1gdxw/r1MX/urQ/BjYyBGawPwXEcLzJsaN9UhCqyHXNKfOm6gmc8JOiCZzE3wSFNBC2j6tLJfbyi7yJ3AF+mrTL/8tSILhBo5zVT/IbGwG/AwBoe5CcQi8e4tkzxT3BtA2fFg1u5toUBicgYtFzrefA4Rd+aByuTI3iAfnKLa8XfZ0d+JQacQao8mBxSPFhrZrj9rvnkwMIA8RiR5JhGx4500IIVdN8Nf58bOY6Hj/IG2T9HmiVdebFSDnB8HQpSVonGuzheWnuxFeIpd06Ds14lclr9ouDPYDx8tdRtZS8sFgtiQBLqAT/p5wG95Sh9sH4YRF0GRjtgsTsVfWcFQG6cKAzGAydB4+VHFQMwm51zoMFZpWWPGCELDsxwgwHu4L/dt/BLzpUi0myDZH5aH6g9rg/KQOB/89uDEHACN0pxbtwidEISJRkVqnUz6eyTT2nySqAhzuStaSUEVtUeNB1PfC74CRuxKtrmmVeJS3hAQbl9wXOJ2PlQ4OCTcBrwtyxD6ZJlcLBgYF/Wjw6gmFEhXlnhVZGb0wl7PMgHsjwNa3De4AEDqHmQ1+jY4AG/3GFXyK1Tr4/Seh5wQMcY+AO5lnnQBYj1EJl4gHP3RMp8QG4wGA0GJvTbXW/Psd0WNGWeZOVHwnF2zEW8q6BzUDda8DieIkqSa25JvyE6+n2gV+aU5E4dUb8Gj0NfdE9zvWiixzvCiDTXTf2KjZRcr+OJ4lw9XhXefRW9KOkbX1l3HK8O6MJk5gKHYvAOAq/jmbCHuFcyTRqkKfre73UJ5BMGSh1xcSjsm6Lqeo1rKO6vqZcnTNpXXiuXquCuIPYIfubHFkhfdKvk+oGOZkcHHLIbT1AVfV8j4xAGimtiSJd4eaOP7fbThdZV8HPB4DDXxAAND4YYsNq849/+Wng413KQx/eOZrh2oxGtumfFNSFXjoaHvSOb7uO36x/PXXQuhWOOE43oNBdVxy4HtSH0KGReUkWeHkOINr8hMrMB+VEIvzKeI/5sFPjUgHwUEhjorCQGfeqEmB7FWWCwuql0qDnMsVzS+qE98ml/Hpk82WPpB/ZIqXdV9A3pFAAG0r/LlrZT9G28YpONBuhE/EunVaKcgV6rX3ARMxpt0Xd+/EAZm2Tydn2gKv36QKV31wfpl4WgYmEPSzhjNhYPPgHVkDbqi33rAqmZkZTRwoyr4lqB/sijOK1f/0XrZp1P/WY2VnCj4j0KAfOjfjBBYGDXYWAHMFAZ4RYDsm+Cjzgr1mriGvFZcQ3mnnlgzxCDkNfzoFAIeUBZvQ2umcFLG8yDR+Pa4fV28AWDhfM2BraFQeIB7XmDuXabz2kCgWfcrs80jVA61b5SKg29YVdUvQpO6VEIjhePHHAP6SL1dQgfYQj55VzsiMHbZfQI9ngNyCLFkt3KxZG2shdvplnyAABAHElEQVR7Xx3HTTvYkTAwnCMGBrEYin7p5q7ou/3quEEQIB51kDMeOF+lH3zFV3CDUq/TDtMuNN4Muubv7ISBHLFJpSC0zHfk4tdccHqxR07Bg06Yit5cH+CBNteHJ/221se0RzYR8DDX7CVVNIdA56FshDfDRV3wHDYlbsD6UGthNHPT+Jl4TAJrEDDoCsu3MLAtDNTaL7a0ir3l9VH5R49Hity8poOvsfQ1D/aK6+nxyA4GfgUG+Sv1igfmrn2O4vhBrtkw+pJ2u7ZGkuMHCp5315sqfB8t13C9cfE1/IQ9j3iAvlMVfZsorl97Ttie/PvEwNL+AfcSBmq9mRPvltUSBihjYZBkvIiw6bZM0zJ2PsCjw1KgGm1ii6jqhLewcpYN9pv/E18KNhgPn0vrIuPl3C3pBz9pIc1T4tTPgojRuPAdHUs4CSyqxixLmu/MHBgDjYSO2GK/6Ht6m+5L2kU/z/MV9qgHKJgv2GMWdG4UfU9CFb5cBu4WF803c5UwmOPMsyxmldBxcGCVhCQbxZ9LYaVaH7mj4OSq1dks+jbJDbRVtQePZwm/egKt+vVFqCN+Jl5Fv74Q15N+pCfxz2g86V+K3IQBnfAFx8lEFxlpzVRuwNzl2orxFAa2gUGBuTrAsgjLiyuGfjI4XrIdAud2rQoejA0eqEzOtRhYw4Pn9oKB4IEV/3zxL2n9Mtcgy5J9th1Zb/CzYIDXEgYWh8394mvNNd/h2nGfM+dmggc7XDObIdRzb7cXgkOUHheVE4EFR5vsDCqwF7zOnt5+Q4NM+TEeyMWT6uwOm3XJayJR4WTCxoFNZV4bQqmJAV7Bom+f+sFmUcYbeHMNFPHPPs8RvAhjPHUzLP6lHw+Mr9cu/LIhEMoB9gAdpo5RVG1pPBhkcqLYoBawQrfAj+bpwB20Bzr/qR4XfsZ4yfknoxd/CjOnrNfClDrGRPBUTPMdSw4VpoKNJFFRP7QN6DoSx92TzmA3DDJjHfU444COSi1dACsR/PIhA6DK+OWTPv49wTztTDZPvHKQUXVhDCxj78byQb/wdcB22PQCPl1c33KIDIzgelXFAmdAvwT2EQ9oHrAttT/wHR4E147KrTKqv9U8UPZVPOi4pnhgGzzwXa6NpEsnd0T8bRmsyjXMlqPf2OIBejLlS6S/yhgU3xV78aGXLLJ51yGdS0Uk115guzlo4slaKtJWVjYrRdU+cwPc93BRdcFSXexSeKkvOBy6JG7zI0abQWLRz5JcN894pbhuKZPHk/1E9ksU+66UDd3qVW9x61YwmyEQK6MZL58i6oQ73Ot4lUBtUbUYTRZ9K6ei5itsVMQIbgz1NWwX1+R4Qj/BZ6WgS7spG3UEPICplFHJq+S65F9HNiVXYJouPwwDUzcfgeCyfusarOtXDKDWdLPOh+TVQ3C+EYNmOD/Ag6MyerkNDx4Rg3Hg3qMYSBmy+bEvmwvh+YvqmMnfBcY11+rc9jEQy2ADrAOQPON2+3eajB81rEhaRKI2I8h1iuJol7JWK/EgTo0XEZSJmro4phvNuiLjEhFcLManCo4L5t5fDpKk1Pw1n0yhPmadOPui7+LN53yzyoapz0i5sn75hOigX54vFuOJQki0x0iqAvZkDxRbTkJwctnOi/dF1ekUpcxrwprq+0v0leGpXxGiV2zohydJCNMwu1pOxKD05GJ5ZNK8FCHni9eAiyorWTDdfxS3V/SdeVXT9ih36LVw6VjtK/yL8riES2TLtM/J5j3yOHIbA+xXfJ0nRgIX9VeuE4fw7py2gj/zBh480AXPxzCwAxiMazCAyW0Vffc4b/OA/QZzDXnQce0xMOD19sgYJB5Qjgl48CCuyUxutW/OgD+0uP7Yensx7QHfaUqFgQu5Fa/G5GfB7gTGYlNZd6RAiIUFSCv951BUDUEXEVQUGa+U6nIOtlLIy/0soyO5vSRNyOroXNui6q2i79AJE1JFZUMCYkCni75jEA9HQPMddb4rI9ykxxFSsAEVuY9kj5VyTfYYyR6gE8JbCjUNFisbji5uF1WnwuMCtJVMmTB5zJf4LNbHiiTT+sD5Qu1XWR+WhZhIrPqyC6Xtm0JX+aLEpSd97TyDoHA+ihWt1Yo9PR7JRJi8AdyMVaFAB2uSKsdz0e2UyzIsYw8yytpX3C002MfADmPQ48zrsnuZgP3GwqD4TrUWeh6UZanWB8nFAH8bA78Cgw5n3raaFzRsRNH3mvsw/sp15hrwYPlWsL1VHuwVPBPJiwzkOyyFjIEJri1uBwbDEtfGMIOvna/DH5YqTJ8z8h4w0pfNL7eNhaTNQ2L+onr+2vni2mCuvYjY6YZMU5CITj4rIuXIFB2RGwQ4hlEoAKMaHSggksVNz8w2i4yDHXS8RsIss02HSgG2euw14KcbLvpSZIeZJnV6XVD6nsqwsSJuwh74xUdhj3VvyWxY6A5mp59oD5s/65sh023PjWvz1LI4oQvQOcE1M514cVi+uD6GJ7BXNkpCLBudTJ64wafX9BYXBbCon8EmlfXLtyr9EL5ag9MXHkMg1nDyIUXfqCoXvw69FgD7hWkFepIuyT2GwW7hscVaoAmXa3jAE7YEqKZrwBM3HqT2cPaEc+Gk9BHXY3Ass5blMgaP8oJBWYOVByMUKJQ4yrUtDOwGDPa/bJ5d+/QRdY+q+0K/3jLOigd7XPPDXDvwksUm1/Z5YM1aqDWmM8h7/u32miacvV0mA6c6mC9NLUfd2zLmDxwvOa9FChwPgjfliKCfJ1m9fppEhv1S0Tf+To+v1q8Db4bTC84dZg4hO39DKmm7Ij8PnWi8SW5bCxIPkXUjAhOOZI+8Ua7iYbYRBdUYTGR7iGmYWRov2SEp7QvA+tiHvrK+bJ4XpDEgwneyfqqIF9fHBBgNDPOFR9wRhOpbsz4JfApM3SKDSN0WbxKHkKeeeRAckmtKyNAFsamwHE+7JDeDnjcO/hNYZGU7MgY4H84woN0s2QgwSMFZYkLlhsJgo7i+2DwTD7MdIITViiwqrvMBJ/4sg3igZJS5h6xqX82DyjXNg4p55YF3PCi6bHAtZTsyh4o/yBiArPizwMCUvxIYmMCA5g3yNorrFQ8eg2suuTavVY4X9ydseaS4XgVv9zV59/26PMuzbDcETTm+c5PkIuAnodKXdLx0082rmMhYYT9vxis3y0uloE7pp6I993LNh9twfikSHxeU8ZTDSCLGSMh7Dk9mRzH9NOF7cnuxZBF9kJSy4M+8GW9/UBfKtPrli+or142Nit5yPKGL0m+YuYtFL/Xj6y4GVLdqp6rw88IFb/odk3EUhBp062LQpuC+djw0X9VceFVVSH+8+Froo3ilYHkOGHT2Pcargzir9eteXc5hrl30uypIvR4DP4JBR6wDNnFzk6aEayvvLvePA35I4PwQDB603gQPjhTXzyC65cEV+r2AeMnMHlAIrh417BYZr37iANGIqKffFD2LNCcVfedwV+pHT9ga/dQpL5+YvOiHj79ivOQV0BmnmGdlvlLBfTnsr+wGpjmTPQzSpoN1UU9gOkfGWTOV/s0Zj+BGNXrSL6exncWHfupkCqf4lZFr0tOAfRRVb5By0knqJ4q+yykKOAmGLWlszJalTPl2wBRcLAWY5dFA2I1tlHhaeJBASLyyApkquNdrQa63Q49HdjAYIFfYaPGU5o42SnhTMXo+OVduHHs88nAMQi7XUBIPGhm7Bc8ND4biwc1cEwudjUU4X4PBcZybBbfBA/qXExLXBgw9Gq5dV/iuMcC5PzoGICOvN8yWdT6Hp6F5ULK2hWtGPmfendM3z6s94JMDEF2stKmv1OGcXjgOMCgEATEcEGbZy1f6b+tL2pFWdtZrpvow0JBF3xERR42JNfr5Muxu0fdyLGq+xvpBDMD6paJqSqkTWEGsFLgUe4xkD4PUcAaGVA4bUO1NKqqm1CtGoSllhwGg52kELOAklH5xsRR9r+9DZf3SfCly1iaPacyi7yigJifGJCdOyqJvmw4V52tRM4MXCyWzPXShay2INVo7JWDPOCcQZMFz5sYFo/oCBGMv8VtymZO0l/ltGMyLIXcfA9/CQK1V4EbLP+H/huKz4mRZqlnuRtG3wFlhcBTnun73udauQUs4r0c/mgduQq6pgmfBNRMYwOB5HycMTHBtcVvpEhhw0beVguc1yKg8mEXVxIOR7DsMvnYOLxzhYznPxddT7iA7rPiG1NtabxUDtd74i+rGE5HrDX37MLUGnme7rRAcd5rl3FVRNTjPEsCm6ebiFVhUVFA8NxpZVE03w8+q35xJ3s9xI6cp4xcVDRd/U1S9VfQdLKdrKZdFupRC69UzBSYwu0E/WRfCAGzFwCQTzTNMKbgPrbmoWp9aZr8VAPbd4oSSuEELzjBA9U1u0Cm3gAD6QcyjuYE2V0WUbI8V8Lqwh7FcyZcSwUYt2/aXh23xZav4mg76RMB6Ai3rqKzVjmuAfbZvNnA5gUIMShyqa3BkuZ3dJM55w1S1Fz0GvodBK7dyqMuosFtr/FCHwQIyxpYvQCQeHOUa/0sMer4PecEAeYC8Khll4Bq7Dc01b3BWPLj6BQM53+sxYK5VHmAA02OvuUY/Gwx8gwfe+Bzb9DmehM1fj2PwuyrTRI9hIpi3FUGX39UgON68xBsr9xsEXFnhZbztou/5+zrh5Q7uK8CJ07Mtg8YjqOhHp0ha63AtxzcJg6wLHzZHITfrUjEIuXDaaOxQoazOLvpdFtDqhr8PMd4AqNTbiPDD8fcSvRE3YjyIcGi8kcYLLArFLAImGYdDELoCNAzADNbFcl6R3UP9ZBF0jpwV9umkv2SIYD87m3oYgclnEPKJ4qIYxQ8WJ8uwh8gmAPatfWmdV5100a3A2RSmBwqe88KYAbHlCQ/Nl0YGF+JmGYh3xr7264rrMw8KrwoPUuH7Dg/2uFYyDDYxj4wKWLf6nIzBXEeuumke7BVVj0aG7VxSPNjjGt6reGCKB+LeLa5lHuSFef1LFmwGT2tvbPCAeVVl9IX+Si7GFMCDDJ9rGj3r9uAvgt/XtLI3cKu8WBnXzmnQeHzzLJ7j8XwRlwZLN+vxLrokgyku1/k2Xy0evGjX47ksWAiQ4xljpTBdLOOLJYBSc9PjmWRh1a/aI4qvUWkB/qgDLm7I8Xb0m/3SAs9ONIqvE6h7k53jqX670adVonUwH139JcCYm4iXbtJuBfxjGCitXfR1VYSf4nwzk5kkE19FV3wx9/rF44MY6F14A+dyzQ90O/plcwXgMf26wvIWgxII5WuPjIH5YUrXAfwQL3XxNb/cMWnmRwxyEIMjXJsB5KF13vBAqax1UXLVOr+Na5youA4DufCPYiA6OvzyIgIms4d8ETxVemGajqLEnBgpzLKI0GHTjVTvCq3hUQhGux4DrfHiUUjVz0I/iqhnHgE6jBy1g1w86Q4DXepJCCYE4xlZfQZJnjDIpy0uqsb0Je8uM10q0+LGcsvGRAFM4NJ9Zb0UOIqib0J3ps0bbiwbrGkOod9UesR46ySU5xvBZVfoGhmocLRBIeZGQAB4pLQUfnYAT+CFG936yLHDUDJiXCMZebyuGDQRkOSCPGHLRec1TXgBAh6LMPZZxOD1u7ioA6fuMdlDMDCJgVhbWxgYYLCDsyucTawZ9GeJB/kx1BgJA8UrExjYbRgwnx+AAfDAGh7kJLsd5poXWWst906HoFcYPM/1htnBDmfFA7IvTRcemW1wbeVg1+SuwWDcsN7mnUNyrcdgP8nxLNrNnxzAou85YUwNY2BQax4TUddmO4kvCggt16zMSBc3LhzPkn4AOgZq1kXRFkeUpdcA/aDIbs03pWHBwFTdbLHAHbDCQu/QCwvqjLBXGDjokjNx5fGIw3wbG/kFg9BvgH6J5BjUyqLq9EXm1I0eISD2XpXORd/rmyTy8ddAqDgwxvnyNMwNgz14rk7H1/SYFu1BBfdQ63F4fUwZdb5URB5QhUMDu4WNYM11PLA0N+CVQ791onVeq3ytyij2pc2i6pJfOqgvXsRjkmUFtY7cTb6MobAfjS1pGk3Rt7LvAQz8Cgy64nrkgVpHsWbzWlA8AK4JHuSDQC363uaabXGN/nyZtwkMTLxgQPJqcf1a3Ckh3vEgvnINxfVDcG1Uro30qADqsUFG3Ms4D8Jgf70FBgM/e3LpH8XXMGEqvk7mUDyA7z6tom8K2KvP4S+bp7UH9p33Mg8EBsYY5Pj7ebSrM024ieJJoHxVOdsI2go0IONTir7FBiyLvnETo/GSfhzEg178zJg2GNBlFcBZr8sKhFIKKU4t61IEWCPpgnJXoMYd8ylIF1U7/ZxyaWpLP87k+LTR+qm/ss5F1Uo/HA9sZZobK9CNG3p7iALgYg8MurI9MCtH/FPcGDS2JwBjvOhXMiDIjQ0MFuYoQ603KSPw2/7KtZW1YHAoobmNLDevVcae8UsyBIc0EbQMhYGWe7zo25J+JaMs5aZDIspQ9iW6QKCd1wwREH1E4pVdj4E1GKyYQvBg/yvXN3ItB8uIwQGuFd4rX7eBge1hADx4nKLvKlZxDXmQi+szD8guDf/WIftiqyMYsH/pfSzTuXkZSPCg45rtcK2stxcSLt236zNNEcwbH1V405GRO/5+sdI6tRh4mLlp4unQWQkPNGGTBYdGwi1Su3mFLLLh707zzAVwePsoE4UfXrrDCSXdcPmdRxusH/33Hm8eb/C9phzC/IFBTSiKJ6hq+KagLxcrFv24kI/xE8AMxG+wrm7xmFB8FZWLLSM4Lz4bxwtRyZZcOIuvb9F/aYNGsckenkRU9S9juFg/2uZoX84wAB5NgBDXxCZ2ubtgNZg75hBg07VsX8xSJhvRROc0hc1hRGl+WN+ki+KsIkI+FEBwRLoYbxwY2LNchXneKCvO9RQemxhlVAxkABb50CIXQeYB9OODkcCgkTEExyUGDQ9UN/m1aUtZpcK1xs8f4NrsV4q+F/bZvnzvkYLnozxArmUeZBmdn1ccz3yZ44YqoujbxDqivyYe7DR+cpO4lvrlgwIGci+i3fh4DidlVnz8CnwKUipeKWCWW10M6H5Ja47t8dzMh+1DPAlCBe0uusHr7VsTnreKS0W/sp67iVjVzysG3YYibUH6eekXBfdwURZVV8HrI9LJ5tq+St/ENRVMmCq4n9zYbi5t5Mf0EwZ2wVO5FBImC/tiJ2HfIe4Vpzr5tXNxry649zJnvbYOfmm5W5gVBCnDbFuXGUDW4tdjMjr9hh3FII27FaTejEHthldjqYmFvkXfjX7yi+rp3rmpuxArefWYGLiehkkeHIBFytD8K9i7N7ocw8Al1/I1/v/1SDbpchgDoaLc8xIPFtfg4LXCHsn9fE30Q5/jcUnuR/Zi2/WF4B7nPX4U5yING79ixqim2maEGZsuPw5KAzq8ht88ClnZF5mVxGMZp39Dv5ye3ikyjpvliRO3vhn75AxFjrzXkQkj63niNIcnWDtF3xi8LP3SfKeNVuyzVfRtsVOBDcge82Qwwjby6QgGglPZFBtR/diytS5qpcCqLGoweeqWs3V+6VgfJUHG7dIzinMN9GNuqOJc3nziFEeFx5CqZkxTDDSGtFEfOAErky2BRJzRWr8f/cqwSQ7pjoxLX3Dqjd3u56T8BvopxiJn1+oLJPMaYWBW/YEJDGiOiUMC52swqDhXDEyt1QM8aNfvnAX4rqM8uBaD4N0DMdjg2pR36AUD4AHZdxzlmhWu4YCD5MZzgu31to2BXYkB7Xk7PLA194ueh3zOFDzgEdwDMHhB0dPVmabsPOnAHTEPT84gkBwQ1KwsQWyEnLHIaTj4qncKTPNXlSkLDAYbpAwEexbRvv6Scc4uQbAFMpZ+IBaDBky5qiLF/CVtXfwaqXoMwFShKznjgfNV+jk4h1pwT+lnmGedL5yCpm8A7gA5uKgaUuVkD4/ABItA5eOvUnAfOuFGjt3IOXDH9qWDXCRbi5ErN7bWBx6rdPG1aQ6BzkPZaI0teF+41nAX1kdwNyYymrm1+JWXBMQa7DCdU2swsBswYFuawH6/4JkeEaHSpnBejhCWfuhUi77Z/igDN5o9DA69YECbVMUZMTB37XMED44W11vDNenbiX/Zn47a8ZEwiPVmC2cuvoafhL3mAX/lOuE8gGt4oLz8JP9+0WmY4Brs1dcW1/v6PTAIGYCBCQysYpC/qH5fcD+qzxnC53TfGnyO7fpC8Pkf2IAZGO68/hkRm85uGmdmO3SRsYFh8wkgTkNi0zOyZWpYFIcbTWS6VsBknNnAnzE5i5NFXKr6zefwNDUu+p7eJvSzsjB9znMEsXi+NcIvhxsT9pgFnWPHHsPKtTLfubG5sEchUsIATjp1AXPmD38SXxIGUwfebLk+wQs3zMLp4ChYcJ9OZHQqNckNxclc9I3Bm8qo4Ik726gvQmUZtMkCflpuX+i6ud4aDlW5yEnG1BoZePJdp9y0GFRB7CICjc3FtOvaQQxM6JcxyIuwfA4FeLD9KQEYbl3zJiNaeXDsS8uPX/BcMNjgmt3Ata39Q3INeOAbPLjtK9fp55rncQwKzgd4YIoHgmu2wbXMA439sRcMtjDYX+cH1pu9uHb7xy3TZsx/ch1YWV2Q961LU10ABBkZrLyZVDTFxgp35yek6uuyJM3r7yKoXrL0fNWERtIP/xuy4qSVsixq/g63LnFpo0wBWDhVXOB4aej5WphQHPA6kBjS5fjwzyqrhHqm362s1WxBCrB1R5ywCQqN0ms03Nhr2RGUQsiJKc4QTu5cECswoqOoMSeSfbVcLqouJz04KDBIeZMQuIhgHzcOvgayLhezE+bAgGVYcer5DbtYW4UFuD7A1mUFKg7lU8uGjMKDRgYyXX0J+rqC54RB4ZpBBgewP8S14Gk5fFnqVniwVfDskgfXc82Ba5UHexzf5BovmpVROcKDYt/UBgmju00wprRcNtD5nGzfh/KAi+sj21/l7stYX2l4AdHTgwvBpdKuus2LQAkXRcaUPwI0U1Alxc5YTXNFdMz65W7wevvWnJXKol873zKe2331Os7X4zp26wKUrcjBDBZxskc2nU+GDiGAdVHUkONZuaj1S/100beJ8UyPJ2wk9cv9xGflXYA/v3x9jM6FHPffUtk2W2+jSrYGU0VUdauXe3Ow6YK6jdJCPy2jXqt66uLrTsa+LlJlMQA+PtyW4wevWbX5XOcZZ+kjjuKs+u1euojAIw1gf4OMXq7iAWBkj881Dj6vw2CDMOWiH7jmYsz7LHt0mCFRXQ8ADF1LBz4HXDGApHtHmVpgfyMGgi9+gAeKazme2gD+mbYb/8HeLZDgxAunRir6boqMy0ktpQzn7/nsVgr0SC88IuaTaa2P2Sr6LuwdcSn/uRZVhy7xOxzt1jEv6zd1Cl3UqaxMl1Qe8Gf+6GWc7MEeeEoWeXE+CXHs0J3YI3GTT4NdUTWmcNNnB0wJSYuaTQ7jiWwOdqS088zmWHAxp8rBRlO4AzdYCPIF5l5OsBX6sPlGypqcosKZZdRHFygXa+eqjGpfkVUpjwYyLiPZPOyriq9DPvJ0C4NEQInz1mPQHQxgGrSmbaS5wwEgB9Ww5ndfnvDQKfNAroUC/XUYTKVlcf0uziPpssO1HR5krhUeHOHaC8CAMmPw9IH2CpgT+brxUK55uhQYPKS4/iEYPGi9odnmeX83Q/L47cH/9hw2fP66olkLsOh5eS4yjhwyR717RcZrvKJM/MQNpi2q3i/6ppQv+AbWD4q+zdLjL+hJgaKHI1BfPMb5zvR5l/0CSPuiarDHmDZK9kBh0x4WP8keI9ljOv9qOLqINqhF1VBftoILYzuUIs9icpgjMA2dGN7UFn1bcHHOl8Yz1k9lynF9JP5JjiudQb/lAGtlecU5ZcSIfpm7Uz/X2JdNgILpAdfgoEC0D53I5mVNwyl3qa9eFknYg4yy9tGWSgat3x4D28DAGgwyJw9jgGe+Kbe8oKHWQs+DY1yLe9djUMG1oWQcxKDDWfGgYs8yyC90OC+fOMqtHQ/scvJVj4LD5tGPMDCBwfodMFDrbQU4se6GVQyGkIH71Jr3yHtAFF8T10bmmtkYyLX7e5ELi2tDcG2kvazIzUXfgUEurk8ieO09x3bzvz1XGmwcGC3z6+xNkXE9hpNTIhcxN3k6yNS0YrzOEuRl/WKco0Xf+eibTwxznujsWD9YSLn4h+Z70Q8CnJrwcVKPT1VgDwt75LcizMAeuMur06GFE1nzLQ7GltXXdNdFcGzojCdmME4p+h7xs9ePTR76iaJvKrhH78mcXMWRR4q+i5DGHmCXQwXPy9aPV/TtibuhCzhtOuV6ooYqmq82WpsOrRkIdDpMD2Jgcq1OX8MELIWuYH7MbOCJn/gncPaEc+FkY99jX7lWw/UYWNLvWNG3cGspiNvjmisZDQ84Gw37gjHXygsuZMqD/uoh6w0PsVs8MAtnI7hmMF4ttEbf1OOsXbHmQV7ndgPXrl5vh7l2ZdF38huaBy+mPawQfE7O6u/38+M04P0v3TH8AmAVsX7JC7zq5OX3uAJpT7//D2UJShtWlBGXUBaf0sQE1jg5YMIfca0tqs64bWU2oB9934nm6SSX/ob4qTjShD0koUtUWwLTGE8BzbqoYYs/M4us16Z+eia+dtZNmPnixtTLV65Td5d8gRNecUoC3rKxyWWRHHN9Q1GdYzDTVOWCXXTMXeUabBwZ1MKNGtT2eCuuVXN53tiKDNx0AIMMPvCEMBjVvvOQxtcG8wpkDOhYv6gunOGS2wU4fCv5ZxcYeLceTRArB1G6Wy+XZYxGxvqJdtjxf5HFqDyQXDPBA9nqJiG2jZYH1b4Jg8K1ebHywK0K7r+ovi3jmuL6ngfZ5vVaPWQc5IHnCT+/9vDHc26FsGqjOl70PS8NupQ/8LxSqcpplI5Cv7QRbxZ9u9KPL1HacI5naR0LJ6eKc+/1SNeq2Cb2rExaYhMGUj/zgr0az8p4pscT2NfxXNg8MmN72Jt346Vb/aB+Xu2RyabH67Dijq5wngeDmS2zDQ4VIVV4V/Q90niqJmEVfecvvsvJZaxM9BP6mYtrPNoMeuuYfjBY8nJtky8od2XF880dBnv9BAbiXldTa7Hfl2GNjDpcLbqdPDiGge328waDKtfKtcMYWPUxLviSVSlcW0sWOKROOBA44L0zwBh07TgGx3HWhfkuuVaH0za37CRsF0Cpy9gwm0OvB2LwnNvtj+dWaptPJPP0uLblruhbhZPl9AF7Kexl6uR8r9PgoKuczuH7S37RZa/oG4Xg3ucG+g3oloq+J1iUWYqJ4DacM1Vt0e38JWc30B4XvfZSrusbNxLUpN+cRoWF9csp6/X7ftH3yggiBuqYAiZfc1/6JXsAZx24wWnnqZ8RF3PBJM13WHKUqa1pBBd1ASZjKgvz06MBgDSUARCy3bJ+QzyGUtkXxJF+1+krkZVisLYw4OHgEQzN3ddwBXOyK/ZLL5AMxnn78YhYgzsYFPsvVbiG8hAGxXdWGfQTs5I5g5LXL/Bgm2u+g3corTKRzPErin0FBnYAA6w/OvJl89Fwbfsr1+Dj4EnDs8LANjAYIENicCvXcsfCg3nCSxgsrtXH4YQBxQc3YPCC4qfbMk0eoJb0n0XUyAWEcI5cQYMt4s3NDGNatFsETztF37jot4q+V/DUfVJgsMrpUpnv0gue6+PxYjIG9Job+qTb/Z+4ENImjnm+I4lYG1z6yuswQAAClykkB3Sgy/zpeRoBCzgJYTi4iAHbVtE3pWhx/9sr+h55vukZOoK65htCZNG3xaOTmK9V/brsGejC80VVmhclio2S3AaEruCZuoEMzLDGmrUVf5kl/NaArAvFNCCDOdkV+7KMsNs+Bn4FBsOsyi38MztS8FzXjISl8GBkHhjqUmXIou8Gg4zzYQwA53GYa7Gmi3pqXdoFA9rI8cANa9VY6fW4DOYUoCcMTHAtzZ11AQxMcM0EBpYwgOJm4sFgHsiC5/tKa7tYdXFtDME1KMhe8QMlgy9cG8Ln5KLvZr0Nsd6wIHv7JYtxgGvo6wbIHeRP76cmuAZ2eEEx0y3/9pxdDBygRkSORd+8kdP5BkNjt2Q4EKMSNHnRXOTmlJT6+mhsrP3JkphlWuWly8rkXJbhJM8FIV6EbPQVka/xINBhqCkwJaeJEMz4fSRdYPHTl7RLtSV7orVhim5so4NF3/NjjAJ7WXRbQOAJryJewQ2yx4iAfNMekJFo7QGbQLEHtoZ/xPEBOi+7sfNnwfkayB2CV4BL5S5vKnm+RmLrV9HrCRRi0NULDiVgX3UCXTayrXWp1+qLKngunGxwln5I8aqRoTCwxIN1GEovLCgerKWAGMB4D3nBoMVgo7h+iweG/gCEdJnTzfWWzDZu4JpdwbVHW2+Sa7WmseMaHUpwOAsiXONz8hfVt3zOo603C/9MNrcX067PNA0g/gLyMgUwDhchpU0eNosczOd+pUjNXPTzELHGdh58bbKj3k/9IuIVUtN4G1kv0IV2d+pWdSlEaJXIYkskaRiUMW5JF2Ejb2RVc9SOXmyU35bE8QTQQ+knYM6BFc63HKtskxte5A5Df8FZL6UMK8apbhFnQDA4yjU+5XZLoHKtqjKdZgwngsaylhcCmgjqEjp/ExgIc6CiiEH8fbTyQmWBQTKNKrpVxbSyPrLsTlb4WU7hFptY5kHrWAoGeYMW2JNc5NpDir6t5zhd6+pVmAfqi/7HvnINcz/Q+GvTkSFGrGTBs7LlIR54HBj5EnEyDukZ58qDGoT2GxF301wrX5VvZPSF/kqu8nUJgzXvuHlxbWxgQOP2BlHn1OfZrg6a/O7O7u7itvs0Jy+DKPqmq8lR4yXe2t055lopPgLKL51JcLGBu5sPXrTr8VzSRRlCj8ddYzQc73LnyP1YkPv0wwmDrM5UpIwn9EtY8eO5TVBThK+7zYLJkW8USmfHqgrujxZ9L77k8XI3d/PR2CPp7AcK7uXUTA3nzbVs84vOyfFJTpYB6x+0DHXrCo/XT2lLOUBdv0IVM7t/ySLbo9zrDYeskC2UzYLH9r3dpo6aDLi2h/OSUfpVGfqaJ7lqyRyTcVS/LQxmG2KoXrjyOkplL5tvPDqzZT5HvODwk1Ii7Osdu/G9R4rrlc37DVzjXP2uxhlbyA3ujg0Zlu92a3iq5O5j0MlQGPitGFjlmrccUj4H53lJz1ym98Qf9TOTh9vVj+fe/dK77D3vfmWdIGZmhouqMf02My0GEZGtk9VcNCvjKrOSo/zOr+tHWtINTjh4wlbpUAzbRf5y6Wfh5CKleS+X9Jt60enNQT8L/VLauRQZIx7qFGAG87Va0Impd0qLDyYnpFenrPX8PR8qaI6ABxkuHhfYGHDq6L6qXG0kU/4XEZitKNjbkDbKWZU49fAJXBW/FlNmI4HNucg9xp3j9ToLXEraHuWOwiu0ZaazKniezouGIxGD1+/iYug1gJ/0mjat764INa+jioHKpGUMjn9Rff87V3s4l46JB7K4XvFgiKnl9WFe8D6CAfP52WAwN9yUeFo8WMH/6LiWfB09lhNc28DgUQqeEwZ2JQaH11vmOPEAvn2WMy0wkRV0E1T3/yO/qH4FBkdxvgaDFue0/61JbfEgceiVl1+xJ3fPP3C6WuJ73/Nee/X9rxKQ02CR7oxQg4oF14SNUpsE+uXWXFOzbIkGnsSbsmye5qDIbo03QmcaD4wFJyIwEacbL3KnWxyoy9QvY7CwsHAsoNOUYQmDGE9j4KCLJ+wLyR3s0WSXFp9TJjX0S8/SB+oXSuei77WYab4jNluITJfjkPMNvWIznvO96Ac2ClsKTlLBvSiCnvYYJrlRbA7znViWgufElyi0ridpyQOS2xX79oXlfK3KCPuGjPhZdckvHbQYhHljHRW7ZZKb5j0p3X1Rvb4QUNcH2DcthoyBX4FB/dcFBA+8+o1Yq8wD4+mGb5pyR+VBPgh0Lxh0Psc2uIZ61eJrwMDUx3RRni76rjJ6HrQvWRzmWgS/4xquDcG1kbjW8IC/cn0peHaBARVfJ3NI/uFLFvFYbsvnULYpxWkoI2wEXIP9ohb6A9dsci38PWX1JgbAg+CawMDMzO/1+PArH7SX7162592uzjR98P2v2sc+/FH7xV/+Jbt7cgen+jxh400MTuv5pNIf5vKbEhAITTOBcXSBWbqG7ABd4NIaZ0hdFj2MTgc4J5QLm3v9lADLNZza0m9YUjkCwFL0zXKXk5X64XhgK/izPg0zMFx7AY/ewDm19sinDWWPGVy6sIex3Jz5M8PAik99xD8DbmxgYMANhWk95epi381CyMkDuhSY0txGkmuIVeJB0cXK2qqboybCsS8tb2Nw3UkfuZb8S5ELhxIh4xAGas0QAcFHpOJrV+vc8to6UvS9jQFhL3jAL6kwD0iE4JptcA2hOva1aeHrNjCoXDuIwQbX9guPKw+u4ZopGQ0PkpHK/sET519xvGsx2Fxv8887Psc3fM4u11rsm6/KNzwYZvZ0DHvX3RP7xNd81N795N32vNvVmaaPvPoR+8zHPmNPB/z7MwQ2XEuZAzx5EnBpH0qoGtzMG5vVNCDe0v77bPB7vpR8A3RI6ejibRz+O8R4ZXLCIVS8sagaT1B1pK6gL2Vtlu6In1SvXnJczDUInQEObzo4HnNDCcmBc376h39clyBoK/aoFCIbhS0lBNUeNbK/4FdtLvEr16QQ+BstpB4rq9xw+kXZA7EcRoaRes0f7AwzpojzSPfSOpIYCWBUQKz2WA8MilyFgQiY2mxHxsAFBp44XmQkRfO8BcdzB9oArWN9Z0Bule84Iq8PCVXmQfu1aRZRC7JNpHqqjOkQCteU3IyfOIBex4O+4JkwEDKUn1f6WaOffsHAks+pX9YvMtQeIRscHoBrhQeWslkoQ9pc3Nzal/vlGqg7v7Ov/8Bn7fUPvrZP9EduVwdNn/zIJ+z1T3/O3nr6lkVKLRewutlYs12XcnO3KKpOznLkjiOl64TlVzFtLkAv+l1+ikt1vGzwRr/UMb54PLib62BOj2c8XlJSFX0bpkOrYJ5FGc/qeBddin420tzyKQrsIbixt3jTQXdhUPaWC7GUjTAyW8WRRwruFfZFv0qilkOwiQ+6lghYBvCyLnytuYS94AbyYG7qhc9iLZjCSq2ZeXG3H5xSN2TYlgzs4GptbfgDhYHVYdPNJoggZWSls4yQyzxoGKiU2eZBirHxVE4vWWwFda6uceG2wbhsynqIy5QMHy+cTrmmlgKFaCDXy3C50HoVX6M2G4eCKrfKqN344ngGGKi14CYwSH2HHLAP7r1cm77ECtew39yP5rVri+tVP4XBU3tqd+72zR963V5Euzpo+obf+5r/vte+yV568iQFyuDQIBuBJz+MSvunABzZkpf3yCzNZ6MzSNotpg0vQkbBc9X6fSRd5kkDenJR9Qzo8BVbmG+XqgwRMQxdjMzcWEXVZlz0jc+ZHcbz8NYhmHTCIlWRQLmoMiCpVjMeWD+Wv3icuaEK8/OqwHoqzNgUbjQYZGticSRykV2wd4nDNUe0RwQjQ3McqXYButgocYIIOH8JIy2lhoWQmC1ww+p8y1ooBxms29FE4FN8WoNbGAgZuug7Y59wNi+PiGytLcDArPqDZV8vIgz0swYDnSnoMTiCs7cLTikYPEAfSut3Ugjw0MXXeC1zvWIwsxXPAgPbwGCAjKlTrD3Ta5pkGKw75kHZoDMPyLeH1wlsrXANMSBePxIG++stYQDF9YoHJKT4YFx7PodLPidxbW//PcC12XEk9SoGZu996T32LR9+w15Eu6n0/I3PvmGvf/rzdnd3Z0/H0wVCEBVwsdj417bm0wgIItafAPhjRrCx6GuRXc4uzZPlIBlLP5CCZKP0/rJc3NwVVZeCxHnKcJxvk11CrOZ8pX4zi2YwX0A1p4bho448nrF+KS4F8JfDtKVX2AADoek4sAiUU7SXU24puL/wJs93JHtY0mXq17x0UIojh+BfAbpiUIuvTchgOxOH4F75tXOFM8hgrsUaC7WgANPAkab5qrlZ4Xj3kkDYvtic5AaXAucqo8NgH+cdDBb/bPFwysDMy6bc+WjZRlI5dOqLvsP2LFcX1+9/2bzHoCss38LAtjBoeJDX5TU8gJUvuWYbXEMFtY/tMYj1ZmYHMajY3/KSBfL9ElSIdR5PZ/jQl3U5Wlzv63cMopKfXAFnYBCgd3KvLPqeBzxjn1OyywQM+BzKVl+4NirXnj59al/z0nvt86++Zt/6kW9O4d7zaTcFTd/++u/3P/aHftie3D2xt99++0JALpRTmx5Gwl6mW7+kXYrsDDblS02VLmwLAuCxgJzYNNt8Hk6HevVlWijag1MfnoZXUEOZHBP6GQXaod8IPVG/S8ARGau84CK41PoF5ng6be1Bwe9KDS07cPFhzfwt7M1o8JrCvu9J+oETgHMOZb1yIEGZCIsFLE9kE3srQuoBlAqqwr6WxisnUGGjY4WQbDfED23JWSUzdcrdtq/mUJWLnORTrjUytjBYPCjYz50mcZfWkboWB7Itf7CFgR3BYCQM8PCSeUVTc8h2sCMqayFxTdu8w77nAXPtOgwy1+wGrm3xoOMarpkOg+pj2T97yzWGOfxa7zuPrTcvGDhNbga/yV9hVAY8GM5cM/f1/TN6uWPhETxYMkSwT4ETBXSXebtY53QouGDggmtwiLQ8NToIivUG+i2uJV3c3d58+lX74Cuv2g986rvtRbWbP3LwI9//Z+zjH/qYvfTkiY1LtoniDEOygaHgb9QWyWOg/Cw5f/8i/43HKyIxqQX6uRgtp6MH60f/HWm8rAtH36RMUZmV5tM6AgwY4Dip+Np58I2sUrLRyBcv9hBOrmaV4m9VidTN8z0RYOeOfG2YsqyISy/TSfZwwT+pH7k9kDHWtcrxdXUbAy+/JLv1tnSF1WEZRJg0uXpvDj5woybMm824vmou9Gs39yHkZl2aou/kh6ojwg06qV5gZB6MKqIB/1jPLGPb5gI/ca/t9ut5UOSOhIGaUsOD+haa6je7bwe6yINq8y4A2+qXD1+2OJFVLr7YhAwTHG95oDlRuaaLr3MLjwQYtJ/xyKD2xfWpW/E58glK4ca8mHkwyh5gpnzOfb+nNuzlJy/b5179evvxb/pLGzvLs203B03f/vq3+Q/9gR+wD7zvA/bmV9/MuJnCrW7YykNBxLB6uehWvywdjW4uCkVglscT+mXRM1LORd/Jk6xMW+dcQG7Vz7V+Gdf7kN8wcIviSNZl/S84Rj1e7qexVzZqv2idC9AFpHo8oV/Gqtw84tQzhD2yLdR4AvuRgvUFs7LRoItmlniq5jsHPNwvyw0Z6wArdTF2nJIvnc0Frwj5DZ5WoA/J6F2El3tz0bduItgW65fWPq4FT+vNgFcQzOK1pXS6l0/7CauBfAaAcTiLTTywZx4oDnU8cKtrRuFsCee8LEu2bpMHwseszI3AIA1XiuvlwjR5czkSuRddXAyAj84WBnLKlUO2OMTD5kyQl36DpwYBZCn6fiAG1eYCg4TV2JCh5Vb9vOHabF95+yv26fd/0r7vE3/QXmR70Oc0/+qf+FH7xs+8buZ3XKgcOHAdq2W+YNiOJ9P4fTrC3aLv7AwjE54vcZFxegwVqd7pQGbOPZ+cU5rY4iSyWfSNx8V5IoLf7/Ub/PgBUttYOxVAO+k0B4w58gmtHOzXYXCUi1yIqwoSOSOoim4tL2o2eUgADOjsNFR6P3TCdHdb9L1u9RiCQJg6DeDOzBjFPHBcxhRsRI8kmAd1zx5sN0xZZ+66VewV1wr0iNkgvug1E1YqhfQK5yUi8XRsYaC4pjHI3L2X8EgYTPsOYx2MedAVX5vxcCtkRM72DhCgr/16roXgLa55w7WOB4PkIs6Id1pb0pdUHnRcMwu+DdFPlRNcg4FtYICF5ddgEDZPIRWpHzxAf0WEhoaPgCXXEgZs38fHwI9g0HAtlpbw2YjzDPoFD7LPeTqGPbl7Yt/z8e+0v/bGX1Th2XNrDwqavuVzX/Af/eN/2b79899qX37zy5FOhJNHTmkSqhn8VYgZBDhU9O3wE4fmS0SECOh00XcYGJz/VkGixfpovw8FBy38+CQVu11+rgBsnbjw5umIbM19UpHnG0HhcjYYBKA94thyUTVsUIuq41RfC05HgNGYPH53mgYu1tQR0rvoHESR7F7R94CfpF/YgGtCFKZCZ9BvOaJaWQ5HMpChsFLcBb6otYAOP+NXX2JQa0ZjIF9sABGjkWGZGznDNQNYWE/ZNbDcXIir+NdjYA0GmZPXYDDlbmFwXcHzEa7FvVtcGy3XcB2ZkLtX8Kwx6LimCL253vLSRx4snxgX84ceOWt3uZBkxDV8yyz5JrOVVUIM5pADfg6rGDys6HswzsPWR8IX14bZgKLqyQP6dz1X1CO4Nngvu782CtfK186TjBkXZwzqeps/ubC8X2/xWO6t8Zb94Ce/1/7kZ37IXnR7lIjt7/3jnxp/5x/9XfvFX/0le+Xld99P2g8OvoiNOZL7/8b+Ngjga2eFEtCH1eGgZ9vxEqBMQm2OZ8HyDdXn47j4suq6CjdvCRGz8HKnVmELAxpP2EONeMBEx/WbJNrqOYR+qdceCIovzsFlqzOdIjdsJOW6vFTPGPWtRH+AjCMYhNw8X0B+Oj4M5jPQu7JqvxxfZRmFfzfI0PPtsO8xYJwfnwcd154VDzoMZntUDJJ9q83jlwH9nj3XUlA45frW2DdikHDeXG9kj2ftczq5j4fB3nozM3trvG3ubt/8oc/b3/62n7Tv+cR3PkrM8pD2KP/a3U/82b/uf+tHfsJe++TX21fffsveevp2vxdnAC+5cXaAXkjLbdiuA0y/UDpQ9XQYe4bO5c9wyrj8qr+KDkMPGJb+xKt0ZipYv+QcPP2tgRSdTDddCRKMnd9G3B5PW6nVz8Aeex2b1JAeLwI6+ccNp1rskbuva/wYaQ5+qOjbvVxTaW2+ljIqNB6gsiFD2dzltbhYsgmdjLWJWcmoXOO002hJZeGEmzbWKBtNxVBg33pNYGBsuJFXyBVcK7qYwl4ECxv2vYUHmNE7cm8lL2T9d+U6dRump1aDnhwwbTHCN6906rUZ+TRQZPIQQMGD0Uwjcw2yPKQM3YtZRZTRPd3Y9zmjuZbv7b92vscD35Cb19vMQt2/KffE7+wLH/5G+8kv/Pg7ImAye6Sgyczsb/7IT/iP/6kfszc++4325O7O3vzqm/Y0f3o4n+jdCzEiog9itEXfacN2NzneSGTZLfqmTcSTDL+kRAdtcoXf8iCkNgwvmar+y9esdD3/ATEHT0ePJ7AX+s1FOQPHXHTLQoQ9Gps7XCsBsuIGpvxBl2lM9BP06MCqHmTfoa5pTLFfTBcJlou+vZeb7DZYhDzZaewppE/gg4NtgxgvMpR++QzAPN1im1j7lm25zktkr5WFtTBV/co1KEhjgIyLr1C2XIIP8AApThuG4EH+9ownGbau7fgw94p9twbrgpM8yFRwca8qrlc8aCJwMZHqY1zwJZsobJ4Pg9m+NBmKvDzxYP69mo3vxUfB2cwCwIKBH8FArkFrbN7hnMVXHmQWycRRuhe5hteuwyD3qwMgBsOGffnpV+y9L73HvuOj32o/+vqfsz/66e9/RwRM3dQf1P7+z/z0+Kl/+tP2xS/9JzMze/r0aTh/XA0lvQqPHy7EykXfrfbN4y+SsDlTPOJ4O+DuozgpeKMbnFZ8LeaKy5FHcmu8fbHNH4U9yqOQDaAPwLurnzpyKrnXjHcIA5xvVaVekxHxMflXpeoD+1yAKe91cfEqvaIIdV5SGTdG4/ictvTLazVO+/EYKr90sBUQ3/JYkuv0WK/tx1FpIofxrpf2uTaumNtRrvEjmBZnOc7tPOi4pniw6Z+v5JrUhbA/uN4I51seFb7TuNY9Bt2R4TiKXcE7LDswm0HtnT+xO3P7wx//Dvsrr/95+/5Pftc7JmDqIH5w+9kv/tz4B//iH9o/+bf/zH79f/9Pe+nuid09ubN5+loFxR5g4TUzi7/nwGke9eCEN4MPPPTFvZdrw8R46ub6VthQ+k1VioOZ46HKR8YbdbEOoZ/E6hgGsTL2xmv0y/gtEHhxCUirPUzY4/B8G3u4Cf3SSU/Ibe3b9RM2ym/W8OOUxKtsNxNYmZhvubfhi4n1MdfOY2Eg1pF6s3Xs2dL2uLsl14RcxaHbZVyLQZXbYPBIPNjjmuLBTVy7i5dAVrbG6zV6KcIZg8gaDnEtuU5P2G/KhZuFLodlXMkDbfP0gsbl+qaMyeMd/cwvh2t8k9ttZTCrzdGW9wPewjWUYSDDW5+DeyjOreeBmdnb9tTc3D79vk/aX/iGP21/4ws/9o4KlmZ7pkr9y5/91+Nn/t0/t3/1c//GfuGXf8G+/NWv2Ltefpc9ubuzu7sndndJfWI90wSwjfJVMiZ3g34lcsbBaMNXA1Zdbs5sQKfIKmX9kpQrMky36UfRVDNfzDRdMd/m4FFPMvMiOMV8MwZn1thDHEB7sEIGLupdTG/IXsgB4VKVC6cvT9gfOr0e7ce8p38GI9/igqd7Mq7EgDMMYaNnV/CMb6Xu8OpGGb3c6zC4PpNzzEblDVhj+yoelIEO8z/Lzdfil0fFQOBc7fFsX7Lo5WabdzIeH4PD6+2RfA7KGzbsqQ0b46m9PZ7am0/ftK991/vtjQ99zv7IJ77LfvBT32vf8nVvvCMDpm6qj9q++N++OP7jl/6z/fx//Q/2X37lF+1X/tev2q/9xq/bb/6f37Tf/p3/a1958yv29Onb2plcq2XZBGAXXXsyhPFbiOgnQnTBRT9e/SiLO7ob69dpdGDueCrBCdRHasOORBc83rYa0iGgFVIgNCuPApZ0KkWcxbU27mv1i9MN1rYlsctc6wTlIy5mB7Lga0ggfh0Om4UxBdW1YoxuvuX/nS5jIDRNX65hRzlPMWDKYpiTeHLMJbuT1X60YBBtklXmk+/sUNwBBfEYuKcNS5FywXI5rVPGgnWj5ITyERtznRa+VxMPAOLeNljuMXSzy1pJvsQbnqPD8ITTJof4msyIojm2uPAMg9vMY567cCYb3Kj38jWdaTL2OaTULfNPyvjG/kZjzXkKb9ziikY3e3L3xF556RX72ne9zz707g/aR9/7dfbJ933cXvvAZ+31V1+zH/jUd79jg6WtqT6z9u9/6efHF7/0n+xLv/bf7X/8xq/Zb/32b9n/+/Lv2FtP39KpOxVsGDtkujZPTOlRHEXP6TsBnD5P17bSJZ7psAEmrYSlLIQQ/eTwZBCiXVwLJ43XVMxEGYUFBzwuXf1qoNdGSHnydUc2ctjiUdyc1ZrH6FL5o8Ug6xa1cahWdy05KxPYNwFXny2bTm5+nJUV3XqEVTzXvJc252G8GBCXZpNrNzLRUT1WKLaEaVJgxhwn7mYadNcynY7yKlPB8yEqPpZbsW9sBNBw5ho3siS/dGsOLOIxj3rcp08QM2hCrJxuHUKEDGzJHheb08dlk36df1aP++b6BV9TuSFKKi4cd1yY3al2DQj+jFQGHjj2a7zJcgj38/W53sBu+IhNtRr4pGtTxOIV3quwj/luP/Js/KRv+ETSBYWlXwFnehyNXLtcmXuTmdtLdy/Z17z8HvvQu1+1j73399in3/8p++FPf987PlA629nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729nOdrazne1sZzvb2c52trOd7WxnO9vZzna2s53tbGc729lubf8f++vc16zIedYAAAAldEVYdGRhdGU6Y3JlYXRlADIwMjAtMTEtMjJUMDc6MDc6MTkrMDA6MDArGDAkAAAAJXRFWHRkYXRlOm1vZGlmeQAyMDIwLTExLTIyVDA3OjA3OjE5KzAwOjAwWkWImAAAAABJRU5ErkJggg=="
| 109,684
| 109,684
| 0.96148
| 4,067
| 109,684
| 25.930416
| 0.951315
| 0.000683
| 0.000834
| 0.000863
| 0.001498
| 0.001498
| 0.001498
| 0.001498
| 0.001498
| 0.001498
| 0
| 0.161057
| 0.000018
| 109,684
| 1
| 109,684
| 109,684
| 0.800441
| 0
| 0
| 0
| 0
| 1
| 0.9999
| 0.9999
| 0
| 1
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| null | 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
4be4d5c8dca76978aeb7851eb68822f49cbcefeb
| 4,610
|
py
|
Python
|
tests/core/test_disjoint_set.py
|
dekespo/AI_ToolKit
|
54c7784693189aa0c5d95d48666876f9a18cf922
|
[
"Apache-2.0"
] | null | null | null |
tests/core/test_disjoint_set.py
|
dekespo/AI_ToolKit
|
54c7784693189aa0c5d95d48666876f9a18cf922
|
[
"Apache-2.0"
] | 56
|
2018-03-03T14:38:31.000Z
|
2019-12-29T22:23:25.000Z
|
tests/core/test_disjoint_set.py
|
dekespo/AI_ToolKit
|
54c7784693189aa0c5d95d48666876f9a18cf922
|
[
"Apache-2.0"
] | null | null | null |
import unittest
from dekespo_ai_sdk.core.disjoint_set import DisjointSet
class DisjointSetTest(unittest.TestCase):
def test_element(self):
element1 = DisjointSet.Element(3)
self.assertEqual(element1.parent, element1)
self.assertEqual(element1.id_, 3)
self.assertEqual(element1.size, 1)
self.assertEqual(element1.rank, 0)
self.assertEqual("Rank: 0, Id: 3, Size: 1", str(element1))
self.assertEqual("Rank: 0, Id: 3, Size: 1", repr(element1))
element2 = DisjointSet.Element("element")
self.assertEqual("Rank: 0, Id: element, Size: 1", str(element2))
def test_disjoint_set_logic(self):
disjoint_set = DisjointSet()
for id_ in range(4):
disjoint_set.make_set(DisjointSet.Element(id_))
# pylint: disable=protected-access
self.assertEqual(len(disjoint_set._set), 4)
disjoint_set.union(0, 1)
self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2)))
self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3)))
disjoint_set.union(2, 3)
disjoint_set.union(3, 2) # Ineffective
self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 1, Id: 2, Size: 2", str(disjoint_set.get_element(2)))
self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3)))
disjoint_set.union(3, 1)
self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 2, Id: 2, Size: 4", str(disjoint_set.get_element(2)))
self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3)))
disjoint_set.union(0, 2) # Ineffective
disjoint_set.union(1, 2) # Ineffective
self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 2, Id: 2, Size: 4", str(disjoint_set.get_element(2)))
self.assertEqual("Rank: 0, Id: 3, Size: 1", str(disjoint_set.get_element(3)))
def test_disjoint_set_already_or_never_exists(self):
disjoint_set = DisjointSet()
for id_ in range(4):
disjoint_set.make_set(DisjointSet.Element(id_))
does_not_exist_element = DisjointSet.Element("unknown")
self.assertIsNone(disjoint_set.get_element(does_not_exist_element.id_))
disjoint_set.union(0, does_not_exist_element.id_)
already_added_element = DisjointSet.Element(0)
disjoint_set.make_set(already_added_element)
# pylint: disable=protected-access
self.assertEqual(len(disjoint_set._set), 4)
def test_disjoint_set_rank_comparison(self):
disjoint_set = DisjointSet()
for id_ in range(3):
disjoint_set.make_set(DisjointSet.Element(id_))
disjoint_set.union(0, 1)
self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2)))
disjoint_set.union(0, 2)
self.assertEqual("Rank: 1, Id: 0, Size: 3", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2)))
disjoint_set = DisjointSet()
for id_ in range(3):
disjoint_set.make_set(DisjointSet.Element(id_))
disjoint_set.union(0, 1)
self.assertEqual("Rank: 1, Id: 0, Size: 2", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2)))
disjoint_set.union(2, 0)
self.assertEqual("Rank: 1, Id: 0, Size: 3", str(disjoint_set.get_element(0)))
self.assertEqual("Rank: 0, Id: 1, Size: 1", str(disjoint_set.get_element(1)))
self.assertEqual("Rank: 0, Id: 2, Size: 1", str(disjoint_set.get_element(2)))
if __name__ == "__main__":
unittest.main()
| 53.604651
| 85
| 0.652495
| 671
| 4,610
| 4.280179
| 0.086438
| 0.210655
| 0.205084
| 0.212047
| 0.777159
| 0.75
| 0.739554
| 0.737813
| 0.726671
| 0.715877
| 0
| 0.043914
| 0.199783
| 4,610
| 85
| 86
| 54.235294
| 0.734616
| 0.021909
| 0
| 0.613333
| 0
| 0
| 0.164557
| 0
| 0
| 0
| 0
| 0
| 0.506667
| 1
| 0.053333
| false
| 0
| 0.026667
| 0
| 0.093333
| 0
| 0
| 0
| 0
| null | 1
| 1
| 1
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 9
|
ef43e37b3f3dd1fce186167a99e5d95890f04f75
| 92
|
py
|
Python
|
tests/test_sdf_net.py
|
soundmaking/sdfspu
|
164af2602d07b18c45a8182cd5e9638628c7e165
|
[
"MIT"
] | null | null | null |
tests/test_sdf_net.py
|
soundmaking/sdfspu
|
164af2602d07b18c45a8182cd5e9638628c7e165
|
[
"MIT"
] | null | null | null |
tests/test_sdf_net.py
|
soundmaking/sdfspu
|
164af2602d07b18c45a8182cd5e9638628c7e165
|
[
"MIT"
] | null | null | null |
from sdfspu.sdf_net import get_ip
def test_get_ip():
assert isinstance(get_ip(), str)
| 15.333333
| 36
| 0.73913
| 16
| 92
| 3.9375
| 0.75
| 0.238095
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.163043
| 92
| 5
| 37
| 18.4
| 0.818182
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.333333
| 1
| 0.333333
| true
| 0
| 0.333333
| 0
| 0.666667
| 0
| 1
| 0
| 0
| null | 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
32a1b5b134b7ed49a4f856350dca3162571c6ea0
| 6,122
|
py
|
Python
|
savepointradio/radio/migrations/0001_initial.py
|
RecursiveGreen/spradio-django2
|
ef7c6e535fdf4bf096b0a1669005600fa8e5ac92
|
[
"MIT"
] | null | null | null |
savepointradio/radio/migrations/0001_initial.py
|
RecursiveGreen/spradio-django2
|
ef7c6e535fdf4bf096b0a1669005600fa8e5ac92
|
[
"MIT"
] | null | null | null |
savepointradio/radio/migrations/0001_initial.py
|
RecursiveGreen/spradio-django2
|
ef7c6e535fdf4bf096b0a1669005600fa8e5ac92
|
[
"MIT"
] | null | null | null |
# Generated by Django 2.0 on 2018-01-05 19:40
from django.db import migrations, models
import django.db.models.deletion
class Migration(migrations.Migration):
initial = True
dependencies = [
]
operations = [
migrations.CreateModel(
name='Album',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')),
('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')),
('disabled', models.BooleanField(default=False, verbose_name='disabled state')),
('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')),
('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')),
('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')),
('title', models.CharField(max_length=255, unique=True, verbose_name='title')),
('sorted_title', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized title')),
],
options={
'abstract': False,
},
),
migrations.CreateModel(
name='Artist',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')),
('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')),
('disabled', models.BooleanField(default=False, verbose_name='disabled state')),
('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')),
('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')),
('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')),
('alias', models.CharField(blank=True, max_length=127, verbose_name='alias')),
('first_name', models.CharField(blank=True, max_length=127, verbose_name='first name')),
('last_name', models.CharField(blank=True, max_length=127, verbose_name='last name')),
('sorted_full_name', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized full name')),
],
options={
'abstract': False,
},
),
migrations.CreateModel(
name='Game',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')),
('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')),
('disabled', models.BooleanField(default=False, verbose_name='disabled state')),
('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')),
('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')),
('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')),
('title', models.CharField(max_length=255, unique=True, verbose_name='title')),
('sorted_title', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized title')),
],
options={
'abstract': False,
},
),
migrations.CreateModel(
name='Song',
fields=[
('id', models.AutoField(auto_created=True, primary_key=True, serialize=False, verbose_name='ID')),
('created_date', models.DateTimeField(auto_now_add=True, verbose_name='added on')),
('modified_date', models.DateTimeField(auto_now=True, verbose_name='last modified')),
('disabled', models.BooleanField(default=False, verbose_name='disabled state')),
('disabled_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='disabled on')),
('disabled_reason', models.TextField(blank=True, verbose_name='reason for disabling')),
('published_date', models.DateTimeField(blank=True, default=None, null=True, verbose_name='published for listening')),
('song_type', models.CharField(choices=[('J', 'Jingle'), ('S', 'Song')], default='S', max_length=1, verbose_name='song type')),
('title', models.CharField(max_length=255, verbose_name='title')),
('num_played', models.PositiveIntegerField(default=0, verbose_name='number of times played')),
('last_played', models.DateTimeField(blank=True, editable=False, null=True, verbose_name='was last played')),
('length', models.DecimalField(blank=True, decimal_places=2, max_digits=8, null=True, verbose_name='song length (in seconds)')),
('path', models.TextField(verbose_name='absolute path to song file')),
('sorted_title', models.CharField(db_index=True, editable=False, max_length=255, verbose_name='naturalized title')),
('album', models.ForeignKey(blank=True, null=True, on_delete=django.db.models.deletion.SET_NULL, to='radio.Album')),
('artists', models.ManyToManyField(blank=True, to='radio.Artist')),
('game', models.ForeignKey(blank=True, null=True, on_delete=django.db.models.deletion.SET_NULL, to='radio.Game')),
],
options={
'abstract': False,
},
),
]
| 65.12766
| 144
| 0.623489
| 658
| 6,122
| 5.62766
| 0.159574
| 0.127734
| 0.097218
| 0.05131
| 0.800702
| 0.797732
| 0.776938
| 0.776938
| 0.776938
| 0.764245
| 0
| 0.010239
| 0.234237
| 6,122
| 93
| 145
| 65.827957
| 0.77965
| 0.007024
| 0
| 0.662791
| 1
| 0
| 0.184795
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.023256
| 0
| 0.069767
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
086a983d4895948252f70c89bdef8187e7bd0202
| 217
|
py
|
Python
|
Archive/TF_VERSION_MASKRCNN/datasets/ellipse/utils/__init__.py
|
iphyer/DefectDetection-MaskRCNN
|
7d1faf99bb2c4ffdbbaaf4544a996b97b2f3a2f9
|
[
"MIT"
] | null | null | null |
Archive/TF_VERSION_MASKRCNN/datasets/ellipse/utils/__init__.py
|
iphyer/DefectDetection-MaskRCNN
|
7d1faf99bb2c4ffdbbaaf4544a996b97b2f3a2f9
|
[
"MIT"
] | null | null | null |
Archive/TF_VERSION_MASKRCNN/datasets/ellipse/utils/__init__.py
|
iphyer/DefectDetection-MaskRCNN
|
7d1faf99bb2c4ffdbbaaf4544a996b97b2f3a2f9
|
[
"MIT"
] | null | null | null |
from .DefectDataset import DefectDetectionDataset
from .add_transforms import rotate_bbox, random_resize
from .imageUtils import *
from .postProcessing import *
from .evaluation import *
from .add_transforms import *
| 31
| 54
| 0.834101
| 25
| 217
| 7.08
| 0.52
| 0.169492
| 0.19209
| 0.259887
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.115207
| 217
| 6
| 55
| 36.166667
| 0.921875
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 0
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
08a9f611b5a23c06374467218ae0dd6b72e6eed7
| 211
|
py
|
Python
|
exp_configs/__init__.py
|
JanAlexanderPersonal/covid19_weak_supervision
|
5599e48c9945f1e08a2731740bc8f6e44a031703
|
[
"Apache-2.0"
] | null | null | null |
exp_configs/__init__.py
|
JanAlexanderPersonal/covid19_weak_supervision
|
5599e48c9945f1e08a2731740bc8f6e44a031703
|
[
"Apache-2.0"
] | null | null | null |
exp_configs/__init__.py
|
JanAlexanderPersonal/covid19_weak_supervision
|
5599e48c9945f1e08a2731740bc8f6e44a031703
|
[
"Apache-2.0"
] | null | null | null |
from . import baseline_exps, weakly_exps, weakly_exps_pau
EXP_GROUPS = {}
EXP_GROUPS.update(weakly_exps.EXP_GROUPS)
#EXP_GROUPS.update(weakly_exps_pau.EXP_GROUPS)
#EXP_GROUPS.update(weakly_exps_pau.EXP_GROUPS)
| 30.142857
| 57
| 0.843602
| 34
| 211
| 4.764706
| 0.264706
| 0.388889
| 0.240741
| 0.296296
| 0.802469
| 0.802469
| 0.802469
| 0.802469
| 0.802469
| 0.802469
| 0
| 0
| 0.061611
| 211
| 6
| 58
| 35.166667
| 0.818182
| 0.42654
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.333333
| 0
| 0.333333
| 0
| 0
| 0
| 0
| null | 1
| 1
| 1
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
|
0
| 11
|
3ee630ab7ff5f2b360ea0e378fe03d5766d9c7ee
| 262
|
py
|
Python
|
data/scrape/fields/utils.py
|
jamesrharwood/journal-guidelines
|
fe6c0a6d3c0443df6fc816b9503fad24459ddb4a
|
[
"MIT"
] | null | null | null |
data/scrape/fields/utils.py
|
jamesrharwood/journal-guidelines
|
fe6c0a6d3c0443df6fc816b9503fad24459ddb4a
|
[
"MIT"
] | null | null | null |
data/scrape/fields/utils.py
|
jamesrharwood/journal-guidelines
|
fe6c0a6d3c0443df6fc816b9503fad24459ddb4a
|
[
"MIT"
] | null | null | null |
def preceeded_by(string):
return r"(?<={})".format(string)
def followed_by(string):
return r"(?={})".format(string)
def not_preceeded_by(string):
return r"(?<!{})".format(string)
def not_followed_by(string):
return r"(?!{})".format(string)
| 17.466667
| 36
| 0.633588
| 34
| 262
| 4.705882
| 0.264706
| 0.2
| 0.35
| 0.375
| 0.98125
| 0.98125
| 0.98125
| 0.7125
| 0
| 0
| 0
| 0
| 0.145038
| 262
| 14
| 37
| 18.714286
| 0.714286
| 0
| 0
| 0
| 0
| 0
| 0.099237
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.5
| false
| 0
| 0
| 0.5
| 1
| 0
| 0
| 0
| 0
| null | 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 1
| 0
| 0
|
0
| 8
|
eb3a81b4ec648c94e97156ca578358c65e7eea0f
| 2,349
|
py
|
Python
|
geniesp/bpc_config.py
|
Sage-Bionetworks/GENIE-Sponsored-Projects
|
e34be3ece96144aa525c7281738736d3c5ef93cb
|
[
"MIT"
] | 1
|
2022-03-10T21:45:53.000Z
|
2022-03-10T21:45:53.000Z
|
geniesp/bpc_config.py
|
Sage-Bionetworks/GENIE-Sponsored-Projects
|
e34be3ece96144aa525c7281738736d3c5ef93cb
|
[
"MIT"
] | 36
|
2020-09-23T18:16:29.000Z
|
2022-03-30T20:56:45.000Z
|
geniesp/bpc_config.py
|
Sage-Bionetworks/GENIE-Sponsored-Projects
|
e34be3ece96144aa525c7281738736d3c5ef93cb
|
[
"MIT"
] | null | null | null |
"""
BPC configuration classes
>>> git clone https://github.com/cBioPortal/cbioportal.git
>>> python run_bpc.py NSCLC ../../cbioportal 1.1-consortium --staging
"""
from .bpc_redcap_export_mapping import BpcProjectRunner
class Brca(BpcProjectRunner):
"""NSCLC BPC sponsored project"""
# Sponsorted project name
_SPONSORED_PROJECT = 'BrCa'
# Redcap codes to cbioportal mapping synid and form key is in
_REDCAP_TO_CBIOMAPPING_SYNID = "syn25712693.7"
# Mapping from Synapse Table to form (derived files)
_DATA_TABLE_IDS = "syn22296821"
# Storage of not found samples
_SP_REDCAP_EXPORTS_SYNID = "syn21446571"
# Run `git rev-parse HEAD` in Genie_processing directory to
# obtain shadigest
_GITHUB_REPO = (
"https://github.com/Sage-Bionetworks/GENIE-Sponsored-Projects/"
# "tree/a672a70ad5195e6e8359325f5cea10bef384b2ff/"
# "geniesp/bpc_config.py"
)
class Crc(BpcProjectRunner):
"""NSCLC BPC sponsored project"""
# Sponsorted project name
_SPONSORED_PROJECT = 'CRC'
# Redcap codes to cbioportal mapping synid and form key is in
_REDCAP_TO_CBIOMAPPING_SYNID = "syn25712693.6"
# Mapping from Synapse Table to form (derived files)
# TODO: Make versioned
_DATA_TABLE_IDS = "syn22296821"
# Storage of not found samples
_SP_REDCAP_EXPORTS_SYNID = "syn21446571"
# Run `git rev-parse HEAD` in Genie_processing directory to
# obtain shadigest
_GITHUB_REPO = (
"https://github.com/Sage-Bionetworks/GENIE-Sponsored-Projects/"
# "tree/765a209402a0e4c8517ec826ddad1f05d842f54a/"
# "geniesp/bpc_config.py"
)
class Nsclc(BpcProjectRunner):
"""NSCLC BPC sponsored project"""
# Sponsorted project name
_SPONSORED_PROJECT = 'NSCLC'
# Redcap codes to cbioportal mapping synid and form key is in
_REDCAP_TO_CBIOMAPPING_SYNID = "syn25712693.6"
# Mapping from Synapse Table to form (derived files)
_DATA_TABLE_IDS = "syn22296821"
# Storage of not found samples
_SP_REDCAP_EXPORTS_SYNID = "syn21446571"
# Run `git rev-parse HEAD` in Genie_processing directory to
# obtain shadigest
_GITHUB_REPO = (
"https://github.com/Sage-Bionetworks/GENIE-Sponsored-Projects/"
# "tree/765a209402a0e4c8517ec826ddad1f05d842f54a/"
# "geniesp/bpc_config.py"
)
| 36.138462
| 71
| 0.710941
| 271
| 2,349
| 5.95941
| 0.280443
| 0.059443
| 0.034675
| 0.0613
| 0.844582
| 0.827245
| 0.827245
| 0.827245
| 0.827245
| 0.827245
| 0
| 0.081513
| 0.200937
| 2,349
| 64
| 72
| 36.703125
| 0.778903
| 0.509153
| 0
| 0.56
| 0
| 0
| 0.271248
| 0
| 0
| 0
| 0
| 0.015625
| 0
| 1
| 0
| false
| 0
| 0.04
| 0
| 0.76
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
|
0
| 8
|
de1d2fc2bfadedb7e6cdb9487f6655a95c475516
| 7,827
|
py
|
Python
|
tests/src/test_mark.py
|
U8NWXD/scorevideo_lib
|
2af8c9ce6adc43af502aaa2a987ecc349b8ac16c
|
[
"BSD-3-Clause"
] | null | null | null |
tests/src/test_mark.py
|
U8NWXD/scorevideo_lib
|
2af8c9ce6adc43af502aaa2a987ecc349b8ac16c
|
[
"BSD-3-Clause"
] | 1
|
2018-08-06T00:00:43.000Z
|
2018-08-06T00:00:43.000Z
|
tests/src/test_mark.py
|
U8NWXD/scorevideo_lib
|
2af8c9ce6adc43af502aaa2a987ecc349b8ac16c
|
[
"BSD-3-Clause"
] | 1
|
2020-06-05T00:38:23.000Z
|
2020-06-05T00:38:23.000Z
|
# This file is part of scorevideo_lib: A library for working with scorevideo
# Use of this file is governed by the license in LICENSE.txt.
"""Unit tests for the :py:class:Mark class
"""
from datetime import timedelta
import pytest
from scorevideo_lib.parse_log import Mark
# pragma pylint: disable=missing-docstring
def test_from_line_valid_start():
mark = Mark.from_line(" 1 0:00.03 video start")
assert mark.frame == 1
assert mark.time == timedelta(seconds=0.03)
assert mark.name == "video start"
def test_from_line_valid_end():
mark = Mark.from_line("54001 30:00.03 video end")
assert mark.frame == 54001
assert mark.time == timedelta(seconds=1800.03)
assert mark.name == "video end"
def test_from_line_invalid_two_spaces_in_name():
with pytest.raises(TypeError):
Mark.from_line(" 1 0:00.03 video start")
def test_from_line_invalid_one_space_after_time():
with pytest.raises(TypeError):
Mark.from_line(" 1 0:00.03 video start")
def test_from_line_invalid_one_space_after_frame():
with pytest.raises(TypeError):
Mark.from_line(" 1 0:00.03 video start")
def test_from_line_invalid_time_no_period():
with pytest.raises(TypeError):
Mark.from_line(" 1 0:00:03 video start")
def test_from_line_invalid_time_two_periods():
with pytest.raises(TypeError):
Mark.from_line(" 1 0.00.03 video start")
def test_from_line_invalid_time_one_middle_digit():
with pytest.raises(TypeError):
Mark.from_line(" 1 0:0.03 video start")
def test_from_line_valid_negative_frame():
Mark.from_line(" -1 0:00.03 video start")
def test_from_line_valid_time_negative():
Mark.from_line(" 1 -0:00.03 video start")
def test_from_line_invalid_frame_nonnumeric():
with pytest.raises(TypeError):
Mark.from_line(" a1 0:00.03 video start")
def test_from_line_invalid_time_nonnumeric():
with pytest.raises(TypeError):
Mark.from_line(" 1 0:a00.03 video start")
def test_from_line_invalid_name():
with pytest.raises(TypeError):
Mark.from_line(" 1 0:00.03 video start!")
def test_from_line_valid_long_time():
mark = Mark.from_line(" 1 01:20:04.03 video start")
assert mark.frame == 1
assert mark.time == timedelta(seconds=(1 * 60 * 60 + 20 * 60 + 4.03))
assert mark.name == "video start"
def test_init_valid_start():
mark = Mark(1, timedelta(seconds=0.03), "video start")
assert mark.frame == 1
assert mark.time == timedelta(seconds=0.03)
assert mark.name == "video start"
def test_init_valid_end():
mark = Mark(54001, timedelta(seconds=(30 * 60 + 0.03)), "video end")
assert mark.frame == 54001
assert mark.time == timedelta(seconds=(30 * 60 + 0.03))
assert mark.name == "video end"
def test_init_valid_long_time():
mark = Mark(1, timedelta(seconds=(1 * 60 * 60 + 20 * 60 + 4.03)),
"video start")
assert mark.frame == 1
assert mark.time == timedelta(seconds=(1 * 60 * 60 + 20 * 60 + 4.03))
assert mark.name == "video start"
def test_to_line_valid_start_end_is_template():
start = " 1 0:00.03 video start"
end = "54001 30:00.03 video end"
mark = Mark.from_line(start)
assert mark.to_line(end) == start
def test_to_line_valid_end_start_is_template():
start = " 1 0:00.03 video start"
end = "54001 30:00.03 video end"
mark = Mark.from_line(end)
assert mark.to_line(start) == end
def test_to_line_valid_hours():
temp = " 54001 30:00.03 video end"
mark = Mark(17, timedelta(seconds=3650.05), "weird mark")
assert mark.to_line(temp) == " 17 1:00:50.05 weird mark"
def test_to_line_valid_secs():
temp = " 54001 30:00.03 video end"
mark = Mark(17, timedelta(seconds=4.05), "weird mark")
assert mark.to_line(temp) == " 17 0:04.05 weird mark"
def test_to_line_valid_microsecs():
temp = " 54001 30:00.03 video end"
mark = Mark(17, timedelta(seconds=0.05), "weird mark")
assert mark.to_line(temp) == " 17 0:00.05 weird mark"
def test_to_line_valid_long_frame():
temp = " 54001 30:00.03 video end"
mark = Mark(143063, timedelta(seconds=4.05), "weird mark")
assert mark.to_line(temp) == "143063 0:04.05 weird mark"
def test_to_line_valid_one_word_name():
temp = " 54001 30:00.03 video end"
mark = Mark(17, timedelta(seconds=4.05), "mark")
assert mark.to_line(temp) == " 17 0:04.05 mark"
def test_to_line_valid_one_word_name_in_template():
temp = " 54001 30:00.03 videoend"
mark = Mark(17, timedelta(seconds=4.05), "weird mark")
assert mark.to_line(temp) == " 17 0:04.05 weird mark"
def test_to_line_valid_long_frame_in_template():
temp = "154001 30:00.03 video end"
mark = Mark(17, timedelta(seconds=4.05), "weird mark")
assert mark.to_line(temp) == " 17 0:04.05 weird mark"
def test_to_line_invalid_template_1_space_after_frame():
with pytest.raises(ValueError):
mark = Mark(1, timedelta(seconds=1), "mark")
mark.to_line(" 1 0:00.03 video start")
def test_to_line_invalid_template_1_space_after_time():
with pytest.raises(ValueError):
mark = Mark(1, timedelta(seconds=1), "mark")
mark.to_line(" 1 0:00.03 video start")
def test_to_line_invalid_time_over_1_day():
with pytest.raises(ValueError):
mark = Mark(17, timedelta(days=1.05), "weird mark")
mark.to_line(" 54001 30:00.03 video end")
def test_to_line_valid_remove_leading_zero_minutes():
temp = " 54001 30:00.03 video end"
mark = Mark(17, timedelta(seconds=61.05), "weird mark")
assert mark.to_line(temp) == " 17 1:01.05 weird mark"
def test_to_line_valid_remove_leading_zero_hours():
temp = " 54001 30:00.03 video end"
mark = Mark(17, timedelta(seconds=3601.05), "weird mark")
assert mark.to_line(temp) == " 17 1:00:01.05 weird mark"
def test_lt_frame_positive():
first = Mark.from_line(" 1 0:00.03 video start")
second = Mark.from_line(" 2 0:00.03 video start")
assert first < second
def test_lt_frame_negative():
first = Mark.from_line(" -2 0:00.03 video start")
second = Mark.from_line(" -1 0:00.03 video start")
assert first < second
def test_lt_frame_both_signs():
first = Mark.from_line(" -1 0:00.03 video start")
second = Mark.from_line(" 1 0:00.03 video start")
assert first < second
def test_lt_time_positive():
first = Mark.from_line(" 1 0:00.03 video start")
second = Mark.from_line(" 1 0:05.00 video start")
assert first < second
def test_lt_time_negative():
first = Mark.from_line(" 1 -0:05.00 video start")
second = Mark.from_line(" 1 -0:00.03 video start")
assert first < second
def test_lt_time_both_signs():
first = Mark.from_line(" 1 -0:00.03 video start")
second = Mark.from_line(" 1 0:00.03 video start")
assert first < second
def test_lt_name():
first = Mark.from_line(" 1 0:00.03 a video starts")
second = Mark.from_line(" 1 0:00.03 video start")
assert first < second
def test_lt_name_lexicographic():
first = Mark.from_line(" 1 0:00.03 A video starts")
second = Mark.from_line(" 1 0:00.03 video starts")
assert first < second
def test_lt_equal():
first = Mark.from_line(" 1 0:00.03 A video starts")
second = Mark.from_line(" 1 0:00.03 A video starts")
assert first >= second
| 30.337209
| 76
| 0.638942
| 1,207
| 7,827
| 3.932891
| 0.094449
| 0.080893
| 0.072046
| 0.07668
| 0.876343
| 0.839267
| 0.798188
| 0.787866
| 0.725722
| 0.662524
| 0
| 0.098109
| 0.243388
| 7,827
| 257
| 77
| 30.455253
| 0.703479
| 0.027597
| 0
| 0.427673
| 0
| 0
| 0.264439
| 0
| 0
| 0
| 0
| 0
| 0.238994
| 1
| 0.251572
| false
| 0
| 0.018868
| 0
| 0.27044
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
de262bed6c5027f229c60be06dc03acdaf77ece2
| 18,678
|
py
|
Python
|
sohu_matching/src/data.py
|
MingjieWang0606/2021-Sohu-Text-Matching-TOP2
|
830a286cc978cb285cb63ae5a457e1d3813fa68a
|
[
"MIT"
] | 5
|
2021-06-20T05:06:53.000Z
|
2022-03-28T16:33:31.000Z
|
sohu_matching/src/data.py
|
MingjieWang0606/2021-Sohu-Text-Matching-TOP2
|
830a286cc978cb285cb63ae5a457e1d3813fa68a
|
[
"MIT"
] | null | null | null |
sohu_matching/src/data.py
|
MingjieWang0606/2021-Sohu-Text-Matching-TOP2
|
830a286cc978cb285cb63ae5a457e1d3813fa68a
|
[
"MIT"
] | 2
|
2021-09-14T01:33:22.000Z
|
2021-12-09T03:41:40.000Z
|
import pandas as pd
import torch
from torch.utils.data import Dataset, DataLoader
from transformers import BertTokenizer, AutoTokenizer
from utils import *
from sklearn.model_selection import train_test_split
import json
from tqdm import tqdm
class SentencePairDataset(Dataset):
def __init__(self, file_dir, is_train, pretrained, shuffle_order=False, aug_data=False, len_limit=512, clip='tail'):
self.is_train = is_train
self.shuffle_order = shuffle_order
self.aug_data = aug_data
self.total_input_ids = []
self.total_input_types = []
# use AutoTokenzier instead of BertTokenizer to support speice.model (AlbertTokenizer-like)
tokenizer = AutoTokenizer.from_pretrained(pretrained)
# read json lines and convert to dict / df
json_lines = []
for single_file_dir in file_dir:
with open(single_file_dir, 'r', encoding='utf-8') as f_in:
json_lines += [line.strip() for line in f_in.readlines()]
lines = [json.loads(line) for line in json_lines]
content = pd.DataFrame(lines)
content.columns = ['source', 'target', 'label']
# utilize labelB=1-->A positive, labelA=0-->B negative
if self.is_train and self.aug_data:
content = augment_data(content)
sources = content['source'].values.tolist()
targets = content['target'].values.tolist()
if self.is_train:
self.labels = content['label'].values.tolist()
else:
self.ids = content['label'].values.tolist()
# shuffle_order is only allowed for training mode
if self.shuffle_order and self.is_train:
sources += content['target'].values.tolist()
targets += content['source'].values.tolist()
self.labels += self.labels
len_limit_s = (len_limit-3)//2
len_limit_t = (len_limit-3)-len_limit_s
# print('len_limit_s: ', len_limit_s)
# print('len_limit_t: ', len_limit_t)
for source, target in tqdm(zip(sources, targets), total=len(sources)):
# tokenize before clipping
source = tokenizer.encode(source)[1:-1]
target = tokenizer.encode(target)[1:-1]
# clip the sentences if too long
# TODO: different strategies to clip long sequences
if clip == 'head' and len(source)+len(target)+3 > len_limit:
if len(source)>len_limit_s and len(target)>len_limit_t:
source = source[0:len_limit_s]
target = target[0:len_limit_t]
elif len(source)>len_limit_s:
source = source[0:len_limit-3-len(target)]
elif len(target)>len_limit_t:
target = target[0:len_limit-3-len(source)]
if clip == 'tail' and len(source)+len(target)+3 > len_limit:
if len(source)>len_limit_s and len(target)>len_limit_t:
source = source[-len_limit_s:]
target = target[-len_limit_t:]
elif len(source)>len_limit_s:
source = source[-(len_limit-3-len(target)):]
elif len(target)>len_limit_t:
target = target[-(len_limit-3-len(source)):]
assert len(source)+len(target)+3 <= len_limit
# [CLS]:101, [SEP]:102
input_ids = [101] + source + [102] + target + [102]
input_types = [0]*(len(source)+2) + [1]*(len(target)+1)
assert len(input_ids) <= len_limit and len(input_types) <= len_limit
self.total_input_ids.append(input_ids)
self.total_input_types.append(input_types)
self.max_input_len = max([len(s) for s in self.total_input_ids])
print("max length: ", self.max_input_len)
def __len__(self):
return len(self.total_input_ids)
def __getitem__(self, idx):
if self.is_train:
input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len)
input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len)
label = int(self.labels[idx])
# print(len(input_ids), len(input_types), label)
return torch.LongTensor(input_ids), torch.LongTensor(input_types), torch.LongTensor([label])
else:
input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len)
input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len)
index = self.ids[idx]
return torch.LongTensor(input_ids), torch.LongTensor(input_types), index
class SentencePairDatasetForSBERT(Dataset):
def __init__(self, file_dir, is_train, pretrained, shuffle_order=False, aug_data=False, len_limit=512, clip='head'):
self.is_train = is_train
self.shuffle_order = shuffle_order
self.aug_data = aug_data
self.total_source_input_ids = []
# token_types are no longer neccessary if not concat into one text
# self.total_source_input_types = []
self.total_target_input_ids = []
# self.total_target_input_types = []
self.sample_types = []
# use AutoTokenzier instead of BertTokenizer to support speice.model (AlbertTokenizer-like)
tokenizer = AutoTokenizer.from_pretrained(pretrained)
lines = []
for single_file_dir in file_dir:
with open(single_file_dir, 'r', encoding='utf-8') as f_in:
content = f_in.readlines()
for item in content:
line = json.loads(item.strip())
# BUG FIXED, order MATTERS!
# mannually add key 'type' to distinguish the origin of samples
# 0 for A, 1 for B
if 'A' in single_file_dir:
if self.is_train:
line['label'] = line.pop('labelA')
line['type'] = 0
else:
if self.is_train:
line['label'] = line.pop('labelB')
line['type'] = 1
lines.append(line)
content = pd.DataFrame(lines)
# print(content.head())
content.columns = ['source', 'target', 'label', 'type']
# utilize labelB=1-->A positive, labelA=0-->B negative
if self.is_train and self.aug_data:
content = augment_data(content)
sources = content['source'].values.tolist()
targets = content['target'].values.tolist()
self.sample_types = content['type'].values.tolist()
if self.is_train:
self.labels = content['label'].values.tolist()
else:
self.ids = content['label'].values.tolist()
# shuffle_order is only allowed for training mode
if self.shuffle_order and self.is_train:
sources += content['target'].values.tolist()
targets += content['source'].values.tolist()
self.labels += self.labels
self.sample_types += self.sample_types
for source, target in tqdm(zip(sources, targets), total=len(sources)):
# tokenize before clipping
source = tokenizer.encode(source)[1:-1]
target = tokenizer.encode(target)[1:-1]
# clip the sentences if too long
# TODO: different strategies to clip long sequences
if clip == 'head':
if len(source)+2 > len_limit:
source = source[0: len_limit-2]
if len(target)+2 > len_limit:
target = target[0: len_limit-2]
if clip == 'tail':
if len(source)+2 > len_limit:
source = source[-len_limit+2:]
if len(target)+2 > len_limit:
target = target[-len_limit+2:]
# check if the length is within the limit
assert len(source)+2 <= len_limit and len(target)+2 <= len_limit
# [CLS]:101, [SEP]:102
source_input_ids = [101] + source + [102]
# source_input_types = [0]*(len(source)+2)
target_input_ids = [101] + target + [102]
# target_input_types = [0]*(len(target)+2)
assert len(source_input_ids) <= len_limit and len(target_input_ids) <= len_limit
# assert len(source_input_types) <= len_limit and len(target_input_types) <= len_limit
self.total_source_input_ids.append(source_input_ids)
# self.total_source_input_types.append(source_input_types)
self.total_target_input_ids.append(target_input_ids)
# self.total_target_input_types.append(target_input_types)
self.max_source_input_len = max([len(s) for s in self.total_source_input_ids])
self.max_target_input_len = max([len(s) for s in self.total_target_input_ids])
print("max source length: ", self.max_source_input_len)
print("max target length: ", self.max_target_input_len)
def __len__(self):
return len(self.total_target_input_ids)
def __getitem__(self, idx):
source_input_ids = pad_to_maxlen(self.total_source_input_ids[idx], self.max_source_input_len)
# source_input_types = pad_to_maxlen(self.total_source_input_types[idx], self.max_source_input_len)
target_input_ids = pad_to_maxlen(self.total_target_input_ids[idx], self.max_target_input_len)
# target_input_types = pad_to_maxlen(self.total_target_input_types[idx], self.max_target_input_len)
sample_type = int(self.sample_types[idx])
if self.is_train:
label = int(self.labels[idx])
return torch.LongTensor(source_input_ids), torch.LongTensor(target_input_ids), torch.LongTensor([label]), sample_type
else:
index = self.ids[idx]
return torch.LongTensor(source_input_ids), torch.LongTensor(target_input_ids), index, sample_type
class SentencePairDatasetWithType(Dataset):
def __init__(self, file_dir, is_train, pretrained, shuffle_order=False, aug_data=False, len_limit=512, clip='head'):
self.is_train = is_train
self.shuffle_order = shuffle_order
self.aug_data = aug_data
self.total_input_ids = []
self.total_input_types = []
self.sample_types = []
# use AutoTokenzier instead of BertTokenizer to support speice.model (AlbertTokenizer-like)
tokenizer = AutoTokenizer.from_pretrained(pretrained)
# read json lines and convert to dict / df
lines = []
for single_file_dir in file_dir:
with open(single_file_dir, 'r', encoding='utf-8') as f_in:
content = f_in.readlines()
for item in content:
line = json.loads(item.strip())
# BUG FIXED, order MATTERS!
# mannually add key 'type' to distinguish the origin of samples
# 0 for A, 1 for B
if 'A' in single_file_dir:
if self.is_train:
line['label'] = line.pop('labelA')
line['type'] = 0
else:
if self.is_train:
line['label'] = line.pop('labelB')
line['type'] = 1
lines.append(line)
print(single_file_dir, len(lines))
content = pd.DataFrame(lines)
# print(content.head())
content.columns = ['source', 'target', 'label', 'type']
# utilize labelB=1-->A positive, labelA=0-->B negative
if self.is_train and self.aug_data:
print("augmenting data...")
content = augment_data(content)
sources = content['source'].values.tolist()
targets = content['target'].values.tolist()
self.sample_types = content['type'].values.tolist()
if self.is_train:
self.labels = content['label'].values.tolist()
else:
self.ids = content['label'].values.tolist()
# shuffle_order is only allowed for training mode
if self.shuffle_order and self.is_train:
sources += content['target'].values.tolist()
targets += content['source'].values.tolist()
self.labels += self.labels
self.sample_types += self.sample_types
len_limit_s = (len_limit-3)//2
len_limit_t = (len_limit-3)-len_limit_s
# print('len_limit_s: ', len_limit_s)
# print('len_limit_t: ', len_limit_t)
for source, target in tqdm(zip(sources, targets), total=len(sources)):
# tokenize before clipping
source = tokenizer.encode(source)[1:-1]
target = tokenizer.encode(target)[1:-1]
# clip the sentences if too long
# TODO: different strategies to clip long sequences
if clip == 'head' and len(source)+len(target)+3 > len_limit:
if len(source)>len_limit_s and len(target)>len_limit_t:
source = source[0:len_limit_s]
target = target[0:len_limit_t]
elif len(source)>len_limit_s:
source = source[0:len_limit-3-len(target)]
elif len(target)>len_limit_t:
target = target[0:len_limit-3-len(source)]
if clip == 'tail' and len(source)+len(target)+3 > len_limit:
if len(source)>len_limit_s and len(target)>len_limit_t:
source = source[-len_limit_s:]
target = target[-len_limit_t:]
elif len(source)>len_limit_s:
source = source[-(len_limit-3-len(target)):]
elif len(target)>len_limit_t:
target = target[-(len_limit-3-len(source)):]
# check if the total length is within the limit
assert len(source)+len(target)+3 <= len_limit
# [CLS]:101, [SEP]:102
input_ids = [101] + source + [102] + target + [102]
input_types = [0]*(len(source)+2) + [1]*(len(target)+1)
assert len(input_ids) <= len_limit and len(input_types) <= len_limit
self.total_input_ids.append(input_ids)
self.total_input_types.append(input_types)
self.max_input_len = max([len(s) for s in self.total_input_ids])
print("max length: ", self.max_input_len)
def __len__(self):
return len(self.total_input_ids)
def __getitem__(self, idx):
if self.is_train:
input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len)
input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len)
label = int(self.labels[idx])
sample_type = int(self.sample_types[idx])
# print(len(input_ids), len(input_types), label)
return torch.LongTensor(input_ids), torch.LongTensor(input_types), torch.LongTensor([label]), sample_type
else:
input_ids = pad_to_maxlen(self.total_input_ids[idx], self.max_input_len)
input_types = pad_to_maxlen(self.total_input_types[idx], self.max_input_len)
index = self.ids[idx]
sample_type = int(self.sample_types[idx])
return torch.LongTensor(input_ids), torch.LongTensor(input_types), index, sample_type
if __name__ == '__main__':
data_dir = '../data/sohu2021_open_data/'
task_a = ['短短匹配A类', '短长匹配A类', '长长匹配A类']
task_b = ['短短匹配B类', '短长匹配B类', '长长匹配B类']
train_data_dir = []
for task in task_a:
train_data_dir.append(data_dir + task + '/train.txt')
train_data_dir.append(data_dir + task + '/train_r2.txt')
print(train_data_dir)
train_data_dir = ['../data/sohu2021_open_data/短短匹配A类/valid.txt', '../data/sohu2021_open_data/短短匹配B类/valid.txt']
test_data_dir = ['../data/sohu2021_open_data/短短匹配A类/test_with_id.txt', '../data/sohu2021_open_data/短短匹配B类/test_with_id.txt']
pretrained = '/data1/wangchenyue/Downloads/bert-base-chinese/'
tokenizer = BertTokenizer.from_pretrained(pretrained)
print("loading bert tokenizer successfully")
print("Testing dataset for SentencePairDatasetWithType")
train_dataset = SentencePairDatasetWithType(file_dir=train_data_dir, is_train=True, pretrained=pretrained, aug_data=False)
print(len(train_dataset))
for idx in range(10):
print(train_dataset[idx][-2])
test_dataset = SentencePairDatasetWithType(file_dir=test_data_dir, is_train=False, pretrained=pretrained)
print(len(test_dataset))
# for idx in range(1):
# print(test_dataset[idx])
# print("Testing dataloader for SentencePairDatasetWithType")
# train_dataloader = DataLoader(train_dataset, batch_size=64, shuffle=True)
# for idx, batch in enumerate(train_dataloader):
# input_ids, input_types, labels, types = batch
# total_ids_a, total_ids_b = [], []
# test_dataloader = DataLoader(test_dataset, batch_size=64, shuffle=False)
# for idx, batch in enumerate(test_dataloader):
# input_ids, input_types, ids, types = batch
# mask_a, mask_b = (types==0).numpy(), (types==1).numpy()
# total_ids_a += [id for id in ids if id.endswith('a')]
# total_ids_b += [id for id in ids if id.endswith('b')]
# 0504, SentencePairDatasetForSBERT
# print("Testing dataset for SentencePairDatasetForSBERT")
# train_dataset = SentencePairDatasetForSBERT(file_dir=train_data_dir, is_train=True, pretrained=pretrained, shuffle_order=False)
# for idx in range(1):
# print(train_dataset[idx])
# test_dataset = SentencePairDatasetForSBERT(file_dir=test_data_dir, is_train=False, pretrained=pretrained)
# for idx in range(1):
# print(test_dataset[idx])
# print("Testing dataloader for SentencePairDatasetForSBERT")
# train_dataloader = DataLoader(train_dataset, batch_size=64, shuffle=True)
# for idx, batch in enumerate(train_dataloader):
# source_input_ids, target_input_types, labels, types = batch
# total_ids_a, total_ids_b = [], []
# test_dataloader = DataLoader(test_dataset, batch_size=64, shuffle=False)
# for idx, batch in enumerate(test_dataloader):
# source_input_ids, target_input_types, ids, types = batch
# mask_a, mask_b = (types==0).numpy(), (types==1).numpy()
# total_ids_a += [id for id in ids if id.endswith('a')]
# total_ids_b += [id for id in ids if id.endswith('b')]
| 44.791367
| 133
| 0.609166
| 2,367
| 18,678
| 4.548796
| 0.08365
| 0.057212
| 0.026005
| 0.015696
| 0.8631
| 0.8292
| 0.792979
| 0.76428
| 0.72908
| 0.725736
| 0
| 0.013556
| 0.281186
| 18,678
| 417
| 134
| 44.791367
| 0.788396
| 0.211265
| 0
| 0.745174
| 0
| 0
| 0.052829
| 0.019589
| 0
| 0
| 0
| 0.002398
| 0.023166
| 1
| 0.034749
| false
| 0
| 0.030888
| 0.011583
| 0.111969
| 0.046332
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
de2d0a75220cadd10b4a09832e7fec500a934829
| 17,625
|
py
|
Python
|
python/tests/test_ppo.py
|
YuMurata/my_ml_rl
|
a76711175fb85a390543b742fd5b978a8a5d9aa0
|
[
"Apache-2.0"
] | null | null | null |
python/tests/test_ppo.py
|
YuMurata/my_ml_rl
|
a76711175fb85a390543b742fd5b978a8a5d9aa0
|
[
"Apache-2.0"
] | null | null | null |
python/tests/test_ppo.py
|
YuMurata/my_ml_rl
|
a76711175fb85a390543b742fd5b978a8a5d9aa0
|
[
"Apache-2.0"
] | null | null | null |
import unittest.mock as mock
import pytest
import numpy as np
import tensorflow as tf
from unitytrainers.ppo.models import PPOModel
<<<<<<< HEAD
from unityagents import UnityEnvironment
def test_ppo_model_continuous():
c_action_c_state_start = '''{
"AcademyName": "RealFakeAcademy",
"resetParameters": {},
"brainNames": ["RealFakeBrain"],
"externalBrainNames": ["RealFakeBrain"],
"logPath":"RealFakePath",
"apiNumber":"API-3",
"brainParameters": [{
"vectorObservationSize": 3,
"numStackedVectorObservations": 2,
"vectorActionSize": 2,
"memorySize": 0,
"cameraResolutions": [],
"vectorActionDescriptions": ["",""],
"vectorActionSpaceType": 1,
"vectorObservationSpaceType": 1
}]
}'''.encode()
tf.reset_default_graph()
with mock.patch('subprocess.Popen'):
with mock.patch('socket.socket') as mock_socket:
with mock.patch('glob.glob') as mock_glob:
# End of mock
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_glob.return_value = ['FakeLaunchPath']
mock_socket.return_value.accept.return_value = (mock_socket, 0)
mock_socket.recv.return_value.decode.return_value = c_action_c_state_start
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"])
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.probs, model.value, model.entropy,
model.learning_rate]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]])}
sess.run(run_list, feed_dict=feed_dict)
env.close()
def test_ppo_model_discrete():
d_action_c_state_start = '''{
"AcademyName": "RealFakeAcademy",
"resetParameters": {},
"brainNames": ["RealFakeBrain"],
"externalBrainNames": ["RealFakeBrain"],
"logPath":"RealFakePath",
"apiNumber":"API-3",
"brainParameters": [{
"vectorObservationSize": 3,
"numStackedVectorObservations": 2,
"vectorActionSize": 2,
"memorySize": 0,
"cameraResolutions": [{"width":30,"height":40,"blackAndWhite":false}],
"vectorActionDescriptions": ["",""],
"vectorActionSpaceType": 0,
"vectorObservationSpaceType": 1
}]
}'''.encode()
tf.reset_default_graph()
with mock.patch('subprocess.Popen'):
with mock.patch('socket.socket') as mock_socket:
with mock.patch('glob.glob') as mock_glob:
# End of mock
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_glob.return_value = ['FakeLaunchPath']
mock_socket.return_value.accept.return_value = (mock_socket, 0)
mock_socket.recv.return_value.decode.return_value = d_action_c_state_start
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"])
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.visual_in[0]: np.ones([2, 40, 30, 3])
}
sess.run(run_list, feed_dict=feed_dict)
env.close()
=======
from unitytrainers.ppo.trainer import discount_rewards
from unityagents import UnityEnvironment
from .mock_communicator import MockCommunicator
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_cc_vector(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=False, visual_inputs=0)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"])
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.probs, model.value, model.entropy,
model.learning_rate]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]])}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_cc_visual(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=False, visual_inputs=2)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"])
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.probs, model.value, model.entropy,
model.learning_rate]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.visual_in[0]: np.ones([2, 40, 30, 3]),
model.visual_in[1]: np.ones([2, 40, 30, 3])}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_dc_visual(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=True, visual_inputs=2)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"])
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.visual_in[0]: np.ones([2, 40, 30, 3]),
model.visual_in[1]: np.ones([2, 40, 30, 3])
}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_dc_vector(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=True, visual_inputs=0)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"])
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]])}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_dc_vector_rnn(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=True, visual_inputs=0)
env = UnityEnvironment(' ')
memory_size = 128
model = PPOModel(env.brains["RealFakeBrain"], use_recurrent=True, m_size=memory_size)
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate, model.memory_out]
feed_dict = {model.batch_size: 1,
model.sequence_length: 2,
model.prev_action: [0, 0],
model.memory_in: np.zeros((1, memory_size)),
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]])}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_cc_vector_rnn(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=False, visual_inputs=0)
env = UnityEnvironment(' ')
memory_size = 128
model = PPOModel(env.brains["RealFakeBrain"], use_recurrent=True, m_size=memory_size)
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate, model.memory_out]
feed_dict = {model.batch_size: 1,
model.sequence_length: 2,
model.memory_in: np.zeros((1, memory_size)),
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]])}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_dc_vector_curio(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=True, visual_inputs=0)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True)
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate, model.intrinsic_reward]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.action_holder: [0, 0]}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_cc_vector_curio(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=False, visual_inputs=0)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True)
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate, model.intrinsic_reward]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.output: [[0.0, 0.0], [0.0, 0.0]]}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_dc_visual_curio(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=True, visual_inputs=2)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True)
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate, model.intrinsic_reward]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.action_holder: [0, 0],
model.visual_in[0]: np.ones([2, 40, 30, 3]),
model.visual_in[1]: np.ones([2, 40, 30, 3]),
model.next_visual_in[0]: np.ones([2, 40, 30, 3]),
model.next_visual_in[1]: np.ones([2, 40, 30, 3])
}
sess.run(run_list, feed_dict=feed_dict)
env.close()
@mock.patch('unityagents.UnityEnvironment.executable_launcher')
@mock.patch('unityagents.UnityEnvironment.get_communicator')
def test_ppo_model_cc_visual_curio(mock_communicator, mock_launcher):
tf.reset_default_graph()
with tf.Session() as sess:
with tf.variable_scope("FakeGraphScope"):
mock_communicator.return_value = MockCommunicator(
discrete_action=False, visual_inputs=2)
env = UnityEnvironment(' ')
model = PPOModel(env.brains["RealFakeBrain"], use_curiosity=True)
init = tf.global_variables_initializer()
sess.run(init)
run_list = [model.output, model.all_probs, model.value, model.entropy,
model.learning_rate, model.intrinsic_reward]
feed_dict = {model.batch_size: 2,
model.sequence_length: 1,
model.vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.next_vector_in: np.array([[1, 2, 3, 1, 2, 3],
[3, 4, 5, 3, 4, 5]]),
model.output: [[0.0, 0.0], [0.0, 0.0]],
model.visual_in[0]: np.ones([2, 40, 30, 3]),
model.visual_in[1]: np.ones([2, 40, 30, 3]),
model.next_visual_in[0]: np.ones([2, 40, 30, 3]),
model.next_visual_in[1]: np.ones([2, 40, 30, 3])
}
sess.run(run_list, feed_dict=feed_dict)
env.close()
def test_rl_functions():
rewards = np.array([0.0, 0.0, 0.0, 1.0])
gamma = 0.9
returns = discount_rewards(rewards, gamma, 0.0)
np.testing.assert_array_almost_equal(returns, np.array([0.729, 0.81, 0.9, 1.0]))
>>>>>>> 1ead1ccc2c842bd00a372eee5c4a47e429432712
if __name__ == '__main__':
pytest.main()
| 46.018277
| 98
| 0.543716
| 1,876
| 17,625
| 4.88806
| 0.079424
| 0.031407
| 0.010469
| 0.078517
| 0.92988
| 0.929444
| 0.92879
| 0.92879
| 0.92879
| 0.92879
| 0
| 0.035705
| 0.342128
| 17,625
| 382
| 99
| 46.138743
| 0.755153
| 0.001305
| 0
| 0.852853
| 0
| 0
| 0.145349
| 0.076198
| 0
| 0
| 0
| 0
| 0.003003
| 0
| null | null | 0
| 0.027027
| null | null | 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
de5e6b38945ceb4ad74e403f644b4878cb7a673b
| 23,918
|
py
|
Python
|
RumourEval2019Models/Bert-MFajcik/task_A/datasets/RumourEvalDataset_BERT.py
|
isspek/veracity-detection
|
9368309722bead209e49e52c206758e3d173092a
|
[
"MIT"
] | null | null | null |
RumourEval2019Models/Bert-MFajcik/task_A/datasets/RumourEvalDataset_BERT.py
|
isspek/veracity-detection
|
9368309722bead209e49e52c206758e3d173092a
|
[
"MIT"
] | null | null | null |
RumourEval2019Models/Bert-MFajcik/task_A/datasets/RumourEvalDataset_BERT.py
|
isspek/veracity-detection
|
9368309722bead209e49e52c206758e3d173092a
|
[
"MIT"
] | null | null | null |
__author__ = "Martin Fajčík"
import json
import torch
import torchtext as tt
from typing import List, Tuple
from pytorch_pretrained_bert import BertTokenizer
from torchtext.data import Example
from vaderSentiment.vaderSentiment import SentimentIntensityAnalyzer
"""
This file contains implementation of Bert-MFajcik datasets extending torchtext.data.Dataset class
"""
class RumourEval2019Dataset_BERTTriplets(tt.data.Dataset):
"""
Creates dataset, where each example is composed as triplet: (source post, previous post, target post)
"""
def __init__(self, path: str, fields: List[Tuple[str, tt.data.Field]], tokenizer: BertTokenizer,
max_length: int = 512, include_features=False, **kwargs):
max_length = max_length - 3 # Count without special tokens
sentiment_analyser = SentimentIntensityAnalyzer()
with open(path) as dataf:
data_json = json.load(dataf)
examples = []
# Each input needs to have at most 2 segments
# We will create following input
# - [CLS] source post, previous post [SEP] choice_1 [SEP]
for example in data_json["Examples"]:
make_ids = lambda x: tokenizer.convert_tokens_to_ids(tokenizer.tokenize(x))
text = make_ids(example["spacy_processed_text"])
prev = make_ids(example["spacy_processed_text_prev"])
src = make_ids(example["spacy_processed_text_src"])
segment_A = src + prev
segment_B = text
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
# truncate if exceeds max length
if len(text_ids) > max_length:
# Truncate segment A
segment_A = segment_A[:max_length // 2]
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
if len(text_ids) > max_length:
# Truncate also segment B
segment_B = segment_B[:max_length // 2]
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
segment_ids = [0] * (len(segment_A) + 2) + [1] * (len(segment_B) + 1)
input_mask = [1] * len(segment_ids)
if include_features:
example_list = list(example.values()) + [text_ids, segment_ids, input_mask]
else:
sentiment = sentiment_analyser.polarity_scores(example["raw_text"])
example_list = [example["id"], example["branch_id"], example["tweet_id"], example["stance_label"],
example["veracity_label"],
"\n-----------\n".join(
[example["raw_text_src"], example["raw_text_prev"], example["raw_text"]]),
example["issource"], sentiment["pos"], sentiment["neu"], sentiment["neg"]] + [
text_ids, segment_ids, input_mask]
examples.append(Example.fromlist(example_list, fields))
super(RumourEval2019Dataset_BERTTriplets, self).__init__(examples, fields, **kwargs)
@staticmethod
def prepare_fields_for_text():
"""
BERT [PAD] token has index 0
"""
text_field = lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0)
return [
('id', tt.data.RawField()),
('branch_id', tt.data.RawField()),
('tweet_id', tt.data.RawField()),
('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('raw_text', tt.data.RawField()),
('issource', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('sentiment_pos', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('sentiment_neu', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('sentiment_neg', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('text', text_field()),
('type_mask', text_field()),
('input_mask', text_field())]
@staticmethod
def prepare_fields_for_f_and_text(
text_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0),
float_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=False,
dtype=torch.float)):
return [
('avgw2v', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True)),
('hasnegation', float_field()),
('hasswearwords', float_field()),
('capitalratio', float_field()),
('hasperiod', float_field()),
('hasqmark', float_field()),
('hasemark', float_field()),
('hasurl', float_field()),
('haspic', float_field()),
('charcount', float_field()),
('wordcount', float_field()),
('issource', float_field()),
('Word2VecSimilarityWrtOther', float_field()),
('Word2VecSimilarityWrtSource', float_field()),
('Word2VecSimilarityWrtPrev', float_field()),
('raw_text', tt.data.RawField()),
('spacy_processed_text', tt.data.RawField()),
('spacy_processed_BLvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_POSvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_DEPvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_NERvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('src_num_false_synonyms', float_field()),
('src_num_false_antonyms', float_field()),
('thread_num_false_synonyms', float_field()),
('thread_num_false_antonyms', float_field()),
('src_unconfirmed', float_field()),
('src_rumour', float_field()),
('thread_unconfirmed', float_field()),
('thread_rumour', float_field()),
('src_num_wh', float_field()),
('thread_num_wh', float_field()),
('id', tt.data.RawField()),
('branch_id', tt.data.RawField()),
('tweet_id', tt.data.RawField()),
('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('raw_text_prev', tt.data.RawField()),
('raw_text_src', tt.data.RawField()),
('spacy_processed_text_prev', tt.data.RawField()),
('spacy_processed_text_src', tt.data.RawField()),
('text', text_field()),
('type_mask', text_field()),
('input_mask', text_field())
]
class RumourEval2019Dataset_BERTTriplets_with_Tags(tt.data.Dataset):
"""
Creates dataset similar to RumourEval2019Dataset_BERTTriplets, but this one also contains
word-level POS/NER/DEP tags
"""
def __init__(self, path: str, fields: List[Tuple[str, tt.data.Field]], tokenizer: BertTokenizer,
max_length: int = 512, include_features=False, **kwargs):
max_length = max_length - 3 # Count without special tokens
sentiment_analyser = SentimentIntensityAnalyzer()
with open(path) as dataf:
data_json = json.load(dataf)
examples = []
# Each input needs to have at most 2 segments
# We will create following input
# - [CLS] source post, previous post [SEP] choice_1 [SEP]
# more important parts are towards the end, usually, and they can be truncated
for example in data_json["Examples"]:
def make_ids_with_mapping(text):
make_ids = lambda x: tokenizer.convert_tokens_to_ids(tokenizer.tokenize(x))
word_tokens = text.split()
ids_mapping = {i: make_ids(w) for i, w in enumerate(word_tokens)}
ids = []
for subwordindices in ids_mapping.values(): ids += subwordindices
return ids_mapping, ids
text_mapping, text = make_ids_with_mapping(example["spacy_processed_text"])
prev_mapping, prev = make_ids_with_mapping(example["spacy_processed_text_prev"])
src_mapping, src = make_ids_with_mapping(example["spacy_processed_text_src"])
segment_A = src + prev
segment_B = text
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
NER_segment_B = []
for k, v in text_mapping.items():
for id in v: NER_segment_B.append(example['spacy_processed_NERvec'][k])
DEP_segment_B = []
for k, v in text_mapping.items():
for id in v: DEP_segment_B.append(example['spacy_processed_DEPvec'][k])
POS_segment_B = []
for k, v in text_mapping.items():
for id in v: POS_segment_B.append(example['spacy_processed_POSvec'][k])
# truncate if exceeds max length
if len(text_ids) > max_length:
# Truncate segment A
segment_A = segment_A[:max_length // 2]
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
if len(text_ids) > max_length:
# Truncate also segment B
segment_B = segment_B[:max_length // 2]
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
NER_segment_B = NER_segment_B[:max_length // 2]
DEP_segment_B = DEP_segment_B[:max_length // 2]
POS_segment_B = POS_segment_B[:max_length // 2]
NER_mask_ids = [0] * (len(segment_A) + 2) + NER_segment_B + [0]
DEP_mask_ids = [0] * (len(segment_A) + 2) + DEP_segment_B + [0]
POS_mask_ids = [0] * (len(segment_A) + 2) + POS_segment_B + [0]
segment_ids = [0] * (len(segment_A) + 2) + [1] * (len(segment_B) + 1)
# example_list = list(example.values())[:-3] + [text_ids, segment_ids]
if include_features:
example_list = list(example.values()) + [text_ids, segment_ids, NER_mask_ids]
else:
sentiment = sentiment_analyser.polarity_scores(example["raw_text"])
example_list = [example["id"], example["branch_id"], example["tweet_id"], example["stance_label"],
example["veracity_label"],
"\n-----------\n".join(
[example["raw_text_src"], example["raw_text_prev"], example["raw_text"]]),
example["issource"], sentiment["pos"], sentiment["neu"], sentiment["neg"]] + [
text_ids, segment_ids, NER_mask_ids, DEP_mask_ids, POS_mask_ids]
examples.append(Example.fromlist(example_list, fields))
super(RumourEval2019Dataset_BERTTriplets_with_Tags, self).__init__(examples, fields, **kwargs)
@staticmethod
def prepare_fields_for_text():
"""
BERT [PAD] token has index 0
"""
text_field = lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0)
return [
('id', tt.data.RawField()),
('branch_id', tt.data.RawField()),
('tweet_id', tt.data.RawField()),
('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('raw_text', tt.data.RawField()),
('issource', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('sentiment_pos', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('sentiment_neu', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('sentiment_neg', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('text', text_field()),
('type_mask', text_field()),
('ner_mask', text_field()),
('dep_mask', text_field()),
('pos_mask', text_field())]
@staticmethod
def prepare_fields_for_f_and_text(
text_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0),
float_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=False,
dtype=torch.float)):
return [
('avgw2v', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True)),
('hasnegation', float_field()),
('hasswearwords', float_field()),
('capitalratio', float_field()),
('hasperiod', float_field()),
('hasqmark', float_field()),
('hasemark', float_field()),
('hasurl', float_field()),
('haspic', float_field()),
('charcount', float_field()),
('wordcount', float_field()),
('issource', float_field()),
('Word2VecSimilarityWrtOther', float_field()),
('Word2VecSimilarityWrtSource', float_field()),
('Word2VecSimilarityWrtPrev', float_field()),
('raw_text', tt.data.RawField()),
('spacy_processed_text', tt.data.RawField()),
('spacy_processed_BLvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_POSvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_DEPvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_NERvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('src_num_false_synonyms', float_field()),
('src_num_false_antonyms', float_field()),
('thread_num_false_synonyms', float_field()),
('thread_num_false_antonyms', float_field()),
('src_unconfirmed', float_field()),
('src_rumour', float_field()),
('thread_unconfirmed', float_field()),
('thread_rumour', float_field()),
('src_num_wh', float_field()),
('thread_num_wh', float_field()),
('id', tt.data.RawField()),
('branch_id', tt.data.RawField()),
('tweet_id', tt.data.RawField()),
('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('raw_text_prev', tt.data.RawField()),
('raw_text_src', tt.data.RawField()),
('spacy_processed_text_prev', tt.data.RawField()),
('spacy_processed_text_src', tt.data.RawField()),
('text', text_field()),
('type_mask', text_field()),
('ner_mask', text_field())
]
class RumourEval2019Dataset_BERTTriplets_3Segments(tt.data.Dataset):
"""
Creates dataset similar to RumourEval2019Dataset_BERTTriplets, but this one
separates src text and prev text via [SEP] token and different segment embedding
"""
def __init__(self, path: str, fields: List[Tuple[str, tt.data.Field]], tokenizer: BertTokenizer,
max_length: int = 512, include_features=False, **kwargs):
max_length = max_length - 3 # Count without special tokens
with open(path) as dataf:
data_json = json.load(dataf)
examples = []
# Each input needs to have at most 2 segments
# We will create following input
# - [CLS] source post, previous post [SEP] choice_1 [SEP]
for example in data_json["Examples"]:
make_ids = lambda x: tokenizer.convert_tokens_to_ids(tokenizer.tokenize(x))
text = make_ids(example["spacy_processed_text"])
prev = make_ids(example["spacy_processed_text_prev"])
src = make_ids(example["spacy_processed_text_src"])
segment_A = src
segment_C = prev
segment_B = text
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
# truncate if exceeds max length
if len(text_ids) > max_length:
# Truncate segment A
segment_C = segment_C[:max_length // 2]
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
if len(text_ids) > max_length:
# Truncate segment A
segment_A = segment_A[:max_length // 2]
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
if len(text_ids) > max_length:
# Truncate also segment B
segment_B = segment_B[:max_length // 2]
text_ids = [tokenizer.vocab["[CLS]"]] + segment_A + [tokenizer.vocab["[SEP]"]] + segment_C + \
[tokenizer.vocab["[SEP]"]] + segment_B + [tokenizer.vocab["[SEP]"]]
segment_ids = [0] * (len(segment_A) + 2) + [2] * (len(segment_C) + 1) + [1] * (len(segment_B) + 1)
# example_list = list(example.values())[:-3] + [text_ids, segment_ids]
if include_features:
example_list = list(example.values()) + [text_ids, segment_ids]
else:
example_list = [example["id"], example["branch_id"], example["tweet_id"], example["stance_label"],
example["veracity_label"],
"\n-----------\n".join(
[example["raw_text_src"], example["raw_text_prev"], example["raw_text"]]),
example["issource"]] + [text_ids, segment_ids]
examples.append(Example.fromlist(example_list, fields))
super(RumourEval2019Dataset_BERTTriplets_3Segments, self).__init__(examples, fields, **kwargs)
@staticmethod
def prepare_fields_for_text():
"""
BERT [PAD] token has index 0
"""
text_field = lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0)
return [
('id', tt.data.RawField()),
('branch_id', tt.data.RawField()),
('tweet_id', tt.data.RawField()),
('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('raw_text', tt.data.RawField()),
('issource', tt.data.Field(use_vocab=False, batch_first=True, sequential=False)),
('text', text_field()),
('type_mask', text_field())]
@staticmethod
def prepare_fields_for_f_and_text(
text_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=True, pad_token=0),
float_field=lambda: tt.data.Field(use_vocab=False, batch_first=True, sequential=False,
dtype=torch.float)):
return [
('avgw2v', tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True)),
('hasnegation', float_field()),
('hasswearwords', float_field()),
('capitalratio', float_field()),
('hasperiod', float_field()),
('hasqmark', float_field()),
('hasemark', float_field()),
('hasurl', float_field()),
('haspic', float_field()),
('charcount', float_field()),
('wordcount', float_field()),
('issource', float_field()),
('Word2VecSimilarityWrtOther', float_field()),
('Word2VecSimilarityWrtSource', float_field()),
('Word2VecSimilarityWrtPrev', float_field()),
('raw_text', tt.data.RawField()),
('spacy_processed_text', tt.data.RawField()),
('spacy_processed_BLvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_POSvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_DEPvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('spacy_processed_NERvec',
tt.data.Field(use_vocab=False, dtype=torch.float, batch_first=True, pad_token=0)),
('src_num_false_synonyms', float_field()),
('src_num_false_antonyms', float_field()),
('thread_num_false_synonyms', float_field()),
('thread_num_false_antonyms', float_field()),
('src_unconfirmed', float_field()),
('src_rumour', float_field()),
('thread_unconfirmed', float_field()),
('thread_rumour', float_field()),
('src_num_wh', float_field()),
('thread_num_wh', float_field()),
('id', tt.data.RawField()),
('branch_id', tt.data.RawField()),
('tweet_id', tt.data.RawField()),
('stance_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('veracity_label', tt.data.Field(sequential=False, use_vocab=False, batch_first=True, is_target=True)),
('raw_text_prev', tt.data.RawField()),
('raw_text_src', tt.data.RawField()),
('spacy_processed_text_prev', tt.data.RawField()),
('spacy_processed_text_src', tt.data.RawField()),
('text', text_field()),
('type_mask', text_field())
]
| 54.235828
| 122
| 0.564554
| 2,598
| 23,918
| 4.907621
| 0.080447
| 0.042353
| 0.041412
| 0.036235
| 0.920392
| 0.914039
| 0.896
| 0.889725
| 0.888314
| 0.880941
| 0
| 0.007218
| 0.299147
| 23,918
| 440
| 123
| 54.359091
| 0.753385
| 0.058659
| 0
| 0.839888
| 0
| 0
| 0.133813
| 0.05109
| 0
| 0
| 0
| 0
| 0
| 1
| 0.02809
| false
| 0
| 0.019663
| 0.008427
| 0.075843
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
de90667492bf46a11d12651dcbf18a0aa4a010d4
| 11,785
|
py
|
Python
|
app/test/integrationtest/test_executive_type.py
|
michalkoziara/IoT-RESTful-Webservice
|
ecb0f3e09cded3190f3646e5cd6c913056d94981
|
[
"bzip2-1.0.6"
] | 2
|
2021-09-24T02:45:32.000Z
|
2021-11-15T09:44:44.000Z
|
app/test/integrationtest/test_executive_type.py
|
PKramek/IoT-RESTful-Webservice-1
|
ecb0f3e09cded3190f3646e5cd6c913056d94981
|
[
"bzip2-1.0.6"
] | null | null | null |
app/test/integrationtest/test_executive_type.py
|
PKramek/IoT-RESTful-Webservice-1
|
ecb0f3e09cded3190f3646e5cd6c913056d94981
|
[
"bzip2-1.0.6"
] | 1
|
2021-09-11T11:47:32.000Z
|
2021-09-11T11:47:32.000Z
|
import json
from app.main.model.executive_type import ExecutiveType
from app.main.repository.device_group_repository import DeviceGroupRepository
from app.main.util.auth_utils import Auth
from app.main.util.constants import Constants
def test_get_executive_type_info_should_return_sensor_info_when_valid_request(
client,
insert_device_group,
insert_user,
get_user_group_default_values,
insert_user_group,
get_executive_type_default_values,
insert_executive_type,
insert_state_enumerator):
content_type = 'application/json'
device_group = insert_device_group()
user = insert_user()
user_group_values = get_user_group_default_values()
user_group_values['users'] = [user]
user_group = insert_user_group(user_group_values)
device_group.user_groups = [user_group]
DeviceGroupRepository.get_instance().update_database()
executive_type_default_values = get_executive_type_default_values()
executive_type_default_values['state_type'] = 'Enum'
executive_type_default_values['default_state'] = 1
executive_type = insert_executive_type(executive_type_default_values)
state_enumerator = insert_state_enumerator()
response = client.get(
'/api/hubs/' + device_group.product_key + '/executive-types/' + executive_type.name,
content_type=content_type,
headers={
'Authorization': 'Bearer ' + Auth.encode_auth_token(user.id, False)
}
)
expected_returned_values = {
'name': executive_type.name,
'stateType': executive_type.state_type,
'stateRangeMin': executive_type.state_range_min,
'stateRangeMax': executive_type.state_range_max,
'enumerator': [
{
'number': state_enumerator.number,
'text': state_enumerator.text
}
],
'defaultState': 'reading enumerator '
}
assert response is not None
assert response.status_code == 200
assert response.content_type == content_type
response_data = json.loads(response.data.decode())
assert response_data is not None
assert response_data == expected_returned_values
def test_get_executive_type_info_should_return_sensor_info_when_valid_request_and_user_is_admin(
client,
insert_device_group,
insert_admin,
get_user_group_default_values,
insert_user_group,
get_executive_type_default_values,
insert_executive_type,
insert_state_enumerator):
content_type = 'application/json'
device_group = insert_device_group()
admin = insert_admin()
assert device_group.admin_id == admin.id
user_group_values = get_user_group_default_values()
user_group = insert_user_group(user_group_values)
device_group.user_groups = [user_group]
DeviceGroupRepository.get_instance().update_database()
executive_type_default_values = get_executive_type_default_values()
executive_type_default_values['state_type'] = 'Enum'
executive_type_default_values['default_state'] = 1
executive_type = insert_executive_type(executive_type_default_values)
state_enumerator = insert_state_enumerator()
response = client.get(
'/api/hubs/' + device_group.product_key + '/executive-types/' + executive_type.name,
content_type=content_type,
headers={
'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True)
}
)
expected_returned_values = {
'name': executive_type.name,
'stateType': executive_type.state_type,
'stateRangeMin': executive_type.state_range_min,
'stateRangeMax': executive_type.state_range_max,
'enumerator': [
{
'number': state_enumerator.number,
'text': state_enumerator.text
}
],
'defaultState': 'reading enumerator '
}
assert response is not None
assert response.status_code == 200
assert response.content_type == content_type
response_data = json.loads(response.data.decode())
assert response_data is not None
assert response_data == expected_returned_values
def test_get_list_of_types_names_should_return_list_of_executive_types_names_when_valid_request(
client,
insert_device_group,
insert_admin,
get_executive_type_default_values,
insert_executive_type):
content_type = 'application/json'
device_group = insert_device_group()
admin = insert_admin()
first_executive_type_values = get_executive_type_default_values()
first_executive_type_values['name'] = 'first_sensor_type'
insert_executive_type(first_executive_type_values)
second_executive_type_values = get_executive_type_default_values()
second_executive_type_values['name'] = 'second_sensor_type'
second_executive_type_values['id'] += 1
insert_executive_type(second_executive_type_values)
third_executive_type_values = get_executive_type_default_values()
third_executive_type_values['name'] = 'third_sensor_type'
third_executive_type_values['id'] += 2
insert_executive_type(third_executive_type_values)
expected_values = ['first_sensor_type', 'second_sensor_type', 'third_sensor_type']
response = client.get(
'/api/hubs/' + device_group.product_key + '/executive-types',
content_type=content_type,
headers={
'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True)
}
)
assert response is not None
assert response.status_code == 200
assert response.content_type == content_type
response_data = json.loads(response.data.decode())
assert response_data is not None
assert response_data == expected_values
def test_get_list_of_types_names_should_return_error_message_when_admin_is_not_admin(
client,
insert_device_group,
insert_admin,
get_sensor_type_default_values,
insert_sensor_type):
content_type = 'application/json'
device_group = insert_device_group()
admin = insert_admin()
response = client.get(
'/api/hubs/' + device_group.product_key + '/executive-types',
content_type=content_type,
headers={
'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, False)
}
)
assert response is not None
assert response.status_code == 403
assert response.content_type == content_type
response_data = json.loads(response.data.decode())
assert response_data is not None
assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_USER_DOES_NOT_HAVE_PRIVILEGES
def test_create_executive_type_should_create_executive_type_in_device_group_when_valid_request(
client,
insert_device_group,
insert_admin):
content_type = 'application/json'
device_group = insert_device_group()
admin = insert_admin()
executive_type_name = 'test executive type name'
response = client.post(
'/api/hubs/' + device_group.product_key + '/executive-types',
data=json.dumps(
{
"name": executive_type_name,
"stateType": "Enum",
"stateRangeMin": 0,
"stateRangeMax": 1,
"enumerator": [
{
"number": 0,
"text": "zero"
},
{
"number": 1,
"text": "one"
}
],
'defaultState': 1
}
),
content_type=content_type,
headers={
'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True)
}
)
assert response
assert response.status_code == 201
response_data = json.loads(response.data.decode())
assert not response_data
executive_types = ExecutiveType.query.filter(ExecutiveType.name == executive_type_name).all()
assert executive_types
def test_create_executive_type_should_return_error_message_when_invalid_request(
client,
insert_device_group,
insert_admin):
content_type = 'application/json'
device_group = insert_device_group()
admin = insert_admin()
executive_type_name = 'test executive type name'
response = client.post(
'/api/hubs/' + device_group.product_key + '/executive-types',
data=json.dumps(
{
"name": executive_type_name,
"stateType": "Enum",
"stateRangeMin": 0,
"stateRangeMax": 0,
"enumerator": [
]
}
),
content_type=content_type,
headers={
'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, True)
}
)
assert response
assert response.status_code == 400
response_data = json.loads(response.data.decode())
assert response_data
assert 'errorMessage' in response_data
assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_BAD_REQUEST
def test_create_executive_type_should_return_error_message_when_user_not_authorized(
client,
insert_device_group,
insert_admin):
content_type = 'application/json'
device_group = insert_device_group()
executive_type_name = 'test executive type name'
response = client.post(
'/api/hubs/' + device_group.product_key + '/executive-types',
data=json.dumps(
{
"name": executive_type_name,
"stateType": "Enum",
"stateRangeMin": 0,
"stateRangeMax": 1,
"enumerator": [
{
"number": 0,
"text": "zero"
},
{
"number": 1,
"text": "one"
}
]
}
),
content_type=content_type
)
assert response
assert response.status_code == 400
response_data = json.loads(response.data.decode())
assert response_data
assert 'errorMessage' in response_data
assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_USER_NOT_DEFINED
def test_create_executive_type_should_return_no_privileges_error_message_when_user_is_not_admin(
client,
insert_device_group,
insert_user):
content_type = 'application/json'
device_group = insert_device_group()
admin = insert_user()
executive_type_name = 'test executive type name'
response = client.post(
'/api/hubs/' + device_group.product_key + '/executive-types',
data=json.dumps(
{
"name": executive_type_name,
"stateType": "Enum",
"stateRangeMin": 0,
"stateRangeMax": 1,
"enumerator": [
{
"number": 0,
"text": "zero"
},
{
"number": 1,
"text": "one"
}
],
'defaultState': 1
}
),
content_type=content_type,
headers={
'Authorization': 'Bearer ' + Auth.encode_auth_token(admin.id, False)
}
)
assert response
assert response.status_code == 403
response_data = json.loads(response.data.decode())
assert response_data
assert 'errorMessage' in response_data
assert response_data['errorMessage'] == Constants.RESPONSE_MESSAGE_USER_DOES_NOT_HAVE_PRIVILEGES
| 32.111717
| 100
| 0.640305
| 1,237
| 11,785
| 5.681487
| 0.09135
| 0.125783
| 0.041121
| 0.059192
| 0.884035
| 0.855293
| 0.846187
| 0.84078
| 0.785714
| 0.772624
| 0
| 0.005153
| 0.27552
| 11,785
| 366
| 101
| 32.199454
| 0.81799
| 0
| 0
| 0.712871
| 0
| 0
| 0.113195
| 0
| 0
| 0
| 0
| 0
| 0.132013
| 1
| 0.026403
| false
| 0
| 0.016502
| 0
| 0.042904
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
de9bf447279503512a672c0f905e7872d6795c28
| 403
|
py
|
Python
|
selecting_OOD_detector/__init__.py
|
the-mama-ai/selecting_OOD_detector
|
1708dd2e46826c6c7a641e5a2259c7003fd24584
|
[
"MIT"
] | null | null | null |
selecting_OOD_detector/__init__.py
|
the-mama-ai/selecting_OOD_detector
|
1708dd2e46826c6c7a641e5a2259c7003fd24584
|
[
"MIT"
] | null | null | null |
selecting_OOD_detector/__init__.py
|
the-mama-ai/selecting_OOD_detector
|
1708dd2e46826c6c7a641e5a2259c7003fd24584
|
[
"MIT"
] | null | null | null |
try:
from .pipeline.ood_pipeline import OODPipeline
from .pipeline.tuner import HyperparameterTuner
except:
try:
from pipeline.ood_pipeline import OODPipeline
from pipeline.tuner import HyperparameterTuner
except:
from selecting_OOD_detector.pipeline.ood_pipeline import OODPipeline
from selecting_OOD_detector.pipeline.tuner import HyperparameterTuner
| 31
| 77
| 0.771712
| 43
| 403
| 7.069767
| 0.255814
| 0.157895
| 0.1875
| 0.246711
| 0.901316
| 0.730263
| 0.598684
| 0.598684
| 0.598684
| 0.598684
| 0
| 0
| 0.193548
| 403
| 12
| 78
| 33.583333
| 0.935385
| 0
| 0
| 0.4
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0.6
| 0
| 0.6
| 0
| 0
| 0
| 0
| null | 0
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
dee7598a6f09212b97ca7183b2a6e1fe6b426aff
| 16,007
|
py
|
Python
|
data_object/tests/test_data_object.py
|
PawelJ-PL/data_object
|
e33f7a0bf7a7a4aa9d5cb1fd7526c2ba63a00fdb
|
[
"MIT"
] | 1
|
2018-01-25T09:14:44.000Z
|
2018-01-25T09:14:44.000Z
|
data_object/tests/test_data_object.py
|
PawelJ-PL/data_object
|
e33f7a0bf7a7a4aa9d5cb1fd7526c2ba63a00fdb
|
[
"MIT"
] | null | null | null |
data_object/tests/test_data_object.py
|
PawelJ-PL/data_object
|
e33f7a0bf7a7a4aa9d5cb1fd7526c2ba63a00fdb
|
[
"MIT"
] | null | null | null |
from datetime import datetime
from enum import Enum
from unittest import TestCase
from data_object import DataObject
from data_object.exceptions import ConstructorKeywordArgumentNotFound
class TestDataObject(TestCase):
def test_should_create_data_object_and_get_as_string(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__())
def test_should_create_data_object_and_exclude_methods(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
def some_method(self):
pass
def other_method(self):
pass
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__())
def test_should_create_data_object_with_properties(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
@property
def other(self):
return 'ABC'
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual('SimpleClass: {"bar": y, "foo": x, "other": ABC}', instance.__str__())
def test_should_create_data_object_with_class_member(self):
# given
class SimpleClass(DataObject):
class_member = 'xyz'
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual('SimpleClass: {"bar": y, "class_member": xyz, "foo": x}', instance.__str__())
def test_should_create_data_object_with_datetime_and_get_as_string(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance = SimpleClass('x', datetime(2000, 10, 5, 14, 30))
# then
self.assertEqual('SimpleClass: {"bar": 2000-10-05 14:30:00, "foo": x}', instance.__str__())
def test_should_create_data_object_with_enum_and_get_as_string(self):
# given
class SomeEnum(Enum):
VAL1 = 'val1'
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance = SimpleClass('x', SomeEnum.VAL1)
# then
self.assertEqual('SimpleClass: {"bar": SomeEnum.VAL1, "foo": x}', instance.__str__())
def test_should_create_child_data_object_and_get_as_string(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class ChildClass(SimpleClass):
def __init__(self, foo, bar, other):
super().__init__(foo, bar)
self.other = other
# when
instance = ChildClass('x', 'y', 'z')
# then
self.assertEqual('ChildClass: {"bar": y, "foo": x, "other": z}', instance.__str__())
def test_should_create_data_object_with_method_and_get_as_string(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
def some_method(self, x):
return self.foo * x
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__())
def test_should_create_data_object_with_protected_field_and_get_as_string(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
self._other = foo + bar
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__())
def test_should_create_data_object_and_get_repr(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual(instance.__repr__(), 'SimpleClass(bar=y, foo=x)')
def test_should_return_equal_true_for_object_with_same_fields(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance1 = SimpleClass('x', 'y')
instance2 = SimpleClass(bar='y', foo='x')
# then
self.assertEqual(instance1, instance2)
def test_should_return_equal_false_for_object_with_different_fields(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance1 = SimpleClass('x', 'y')
instance2 = SimpleClass(bar='z', foo='x')
# then
self.assertNotEqual(instance1, instance2)
def test_should_return_equal_true_for_object_with_same_fields_and_no_subclass(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class OtherClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass('x', 'y')
# then
self.assertEqual(instance1, instance2)
def test_should_return_equal_true_for_object_with_same_fields_and_subclass(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class OtherClass(SimpleClass):
pass
# when
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass('x', 'y')
# then
self.assertEqual(instance1, instance2)
def test_should_return_equal_true_for_object_with_same_fields_and_subclass_changed_order(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class OtherClass(SimpleClass):
pass
# when
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass('x', 'y')
# then
self.assertEqual(instance2, instance1)
def test_should_return_equal_true_for_object_with_same_fields_and_subclass_changed_hierarchy(self):
# given
class OtherClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class SimpleClass(OtherClass):
pass
# when
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass('x', 'y')
# then
self.assertEqual(instance1, instance2)
def test_should_return_equal_true_for_object_with_same_fields_and_no_subclass_changed_order(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class OtherClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
# when
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass('x', 'y')
# then
self.assertEqual(instance2, instance1)
def test_should_raise_exception_on_equal_if_no_to_json_method(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class OtherClass:
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass('x', 'y')
# then
self.assertNotEqual(instance1, instance2)
def test_should_not_add_equal_values_to_set_twice_for_the_same_class(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
result = set()
# when
instance1 = SimpleClass('x', 'y')
instance2 = SimpleClass(bar='y', foo='x')
result.add(instance1)
result.add(instance2)
# then
self.assertEqual(len(result), 1)
def test_should_not_add_equal_values_to_set_twice_when_subclass(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class OtherClass(SimpleClass):
pass
result = set()
# when
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass(bar='y', foo='x')
result.add(instance1)
result.add(instance2)
# then
self.assertEqual(len(result), 1)
def test_should_not_add_equal_values_to_set_twice_when_no_subclass(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
class OtherClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
result = set()
# when
instance1 = SimpleClass('x', 'y')
instance2 = OtherClass(bar='y', foo='x')
result.add(instance1)
result.add(instance2)
# then
self.assertEqual(len(result), 1)
def test_should_add_different_values_to_set(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
result = set()
# when
instance1 = SimpleClass('x', 'y')
instance2 = SimpleClass(bar='z', foo='x')
result.add(instance1)
result.add(instance2)
# then
self.assertEqual(len(result), 2)
def test_should_create_instance_from_dict(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
data = {'bar': 'y', 'foo': 'x'}
# when
instance = SimpleClass.from_dict(data)
# then
self.assertIsInstance(instance, SimpleClass)
self.assertEqual(instance.foo, 'x')
self.assertEqual(instance.bar, 'y')
def test_should_raise_exception_when_constructor_arg_not_found(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
data = {'bar': 'y'}
# when
with self.assertRaisesRegex(ConstructorKeywordArgumentNotFound, "Constructor argument 'foo' not found"):
SimpleClass.from_dict(data)
def test_should_set_arg_with_none_when_value_not_found(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
data = {'bar': 'y'}
# when
instance = SimpleClass.from_dict(data, none_if_not_found=True)
# then
self.assertIsInstance(instance, SimpleClass)
self.assertIsNone(instance.foo)
self.assertEqual(instance.bar, 'y')
def test_should_create_instance_from_dict_with_defaults_in_constructor_and_all_provided(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar='xyz'):
self.foo = foo
self.bar = bar
data = {'bar': 'y', 'foo': 'x'}
# when
instance = SimpleClass.from_dict(data)
# then
self.assertIsInstance(instance, SimpleClass)
self.assertEqual(instance.foo, 'x')
self.assertEqual(instance.bar, 'y')
def test_should_create_instance_from_dict_with_defaults_in_constructor_and_not_all_provided(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar='xyz'):
self.foo = foo
self.bar = bar
data = {'foo': 'x'}
# when
instance = SimpleClass.from_dict(data)
# then
self.assertIsInstance(instance, SimpleClass)
self.assertEqual(instance.foo, 'x')
self.assertEqual(instance.bar, 'xyz')
def test_should_create_instance_from_dict_when_more_args_provided(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
data = {'bar': 'y', 'foo': 'x', 'other': 'xyz'}
# when
instance = SimpleClass.from_dict(data)
# then
self.assertIsInstance(instance, SimpleClass)
self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__())
def test_should_create_data_object_and_get_as_string_when_self_renamed(self):
# given
class SimpleClass(DataObject):
# noinspection PyMethodParameters
def __init__(other, foo, bar):
other.foo = foo
other.bar = bar
# when
instance = SimpleClass('x', 'y')
# then
self.assertEqual('SimpleClass: {"bar": y, "foo": x}', instance.__str__())
def test_should_copy_instance(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
inst1 = SimpleClass('abc', 'xyz')
# when
inst2 = inst1.copy()
# then
self.assertIsInstance(inst2, SimpleClass)
self.assertEqual(inst1, inst2)
def test_should_copy_instance_with_all_changed_fields(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
inst1 = SimpleClass('abc', 'xyz')
# when
inst2 = inst1.copy(foo='aa', bar='bb')
# then
self.assertIsInstance(inst2, SimpleClass)
self.assertEqual('SimpleClass: {"bar": bb, "foo": aa}', str(inst2))
def test_should_copy_instance_with_some_changed_fields(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
inst1 = SimpleClass('abc', 'xyz')
# when
inst2 = inst1.copy(foo='aa')
# then
self.assertIsInstance(inst2, SimpleClass)
self.assertEqual(str(inst2), 'SimpleClass: {"bar": xyz, "foo": aa}')
def test_should_copy_instance_with_not_known_field_fields(self):
# given
class SimpleClass(DataObject):
def __init__(self, foo, bar):
self.foo = foo
self.bar = bar
inst1 = SimpleClass('abc', 'xyz')
# when
inst2 = inst1.copy(foo='aa', zz='cc')
# then
self.assertIsInstance(inst2, SimpleClass)
self.assertEqual(str(inst2), 'SimpleClass: {"bar": xyz, "foo": aa}')
self.assertFalse(hasattr(inst2, 'zz'))
| 28.789568
| 112
| 0.55963
| 1,701
| 16,007
| 4.955908
| 0.072898
| 0.061447
| 0.04828
| 0.061447
| 0.87153
| 0.841518
| 0.828826
| 0.796085
| 0.785647
| 0.775208
| 0
| 0.009697
| 0.336415
| 16,007
| 555
| 113
| 28.841441
| 0.783939
| 0.034297
| 0
| 0.745399
| 0
| 0.003067
| 0.05085
| 0
| 0
| 0
| 0
| 0
| 0.144172
| 1
| 0.230061
| false
| 0.018405
| 0.015337
| 0.006135
| 0.386503
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
dee89f88c3d7fead9f34abd3f3c5ba8c51f8544c
| 2,045
|
py
|
Python
|
basic/points_plot.py
|
rkneusel9/SwarmOptimization
|
5445b6f90ab49339ca0fdb71e98d44e6827c95a8
|
[
"MIT"
] | 2
|
2022-01-11T17:14:14.000Z
|
2022-03-07T10:22:32.000Z
|
basic/points_plot.py
|
rkneusel9/SwarmOptimization
|
5445b6f90ab49339ca0fdb71e98d44e6827c95a8
|
[
"MIT"
] | null | null | null |
basic/points_plot.py
|
rkneusel9/SwarmOptimization
|
5445b6f90ab49339ca0fdb71e98d44e6827c95a8
|
[
"MIT"
] | 1
|
2021-11-24T01:11:49.000Z
|
2021-11-24T01:11:49.000Z
|
import numpy as np
import matplotlib.pylab as plt
ro = np.load("points_ro_resample.npy")
pso = np.load("points_pso_resample.npy")
jaya= np.load("points_jaya_resample.npy")
gwo = np.load("points_gwo_resample.npy")
gwo2= np.load("points_gwo_n4_resample.npy")
x = np.arange(100)
plt.plot(x,ro, color='r')
plt.plot(x,pso, color='g')
plt.plot(x,jaya, color='b')
plt.plot(x,gwo, color='m')
plt.plot(x,gwo2, color='k')
x = np.arange(100)[::5]
plt.plot(x,ro[::5], marker='o', linestyle='none',color='r', label='RO')
plt.plot(x,pso[::5], marker='s', linestyle='none',color='g', label='PSO')
plt.plot(x,jaya[::5], marker='*', linestyle='none',color='b', label='Jaya')
plt.plot(x,gwo[::5], marker='^', linestyle='none', color='m', label='GWO ($\eta=2$)')
plt.plot(x,gwo2[::5], marker='<', linestyle='none', color='k', label='GWO ($\eta=4$)')
plt.ylim((-5.1,-0.7))
plt.legend(loc="upper right")
plt.xlabel("Iteration")
plt.ylabel("Objective Function")
plt.tight_layout(pad=0, w_pad=0, h_pad=0)
plt.savefig("points_plot_resample.png", dpi=300)
plt.show()
plt.close()
ro = np.load("points_ro_clip.npy")
pso = np.load("points_pso_clip.npy")
jaya= np.load("points_jaya_clip.npy")
gwo = np.load("points_gwo_clip.npy")
gwo2= np.load("points_gwo_n4_clip.npy")
x = np.arange(100)
plt.plot(x,ro, color='r')
plt.plot(x,pso, color='g')
plt.plot(x,jaya, color='b')
plt.plot(x,gwo, color='m')
plt.plot(x,gwo2, color='k')
x = np.arange(100)[::5]
plt.plot(x,ro[::5], marker='o', linestyle='none',color='r', label='RO')
plt.plot(x,pso[::5], marker='s', linestyle='none',color='g', label='PSO')
plt.plot(x,jaya[::5], marker='*', linestyle='none',color='b', label='Jaya')
plt.plot(x,gwo[::5], marker='^', linestyle='none', color='m', label='GWO ($\eta=2$)')
plt.plot(x,gwo2[::5], marker='<', linestyle='none', color='k', label='GWO ($\eta=4$)')
plt.ylim((-5.1,-0.7))
plt.legend(loc="upper right")
plt.xlabel("Iteration")
plt.ylabel("Objective Function")
plt.tight_layout(pad=0, w_pad=0, h_pad=0)
plt.savefig("points_plot_clip.png", dpi=300)
plt.show()
plt.close()
| 32.983871
| 86
| 0.661614
| 373
| 2,045
| 3.541555
| 0.16622
| 0.10598
| 0.12112
| 0.09084
| 0.914459
| 0.890235
| 0.791824
| 0.719152
| 0.719152
| 0.719152
| 0
| 0.029567
| 0.073839
| 2,045
| 61
| 87
| 33.52459
| 0.667899
| 0
| 0
| 0.730769
| 0
| 0
| 0.234834
| 0.080235
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.038462
| 0
| 0.038462
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
723c96b698908e6fdea81165cc9edba869fd29f2
| 733
|
py
|
Python
|
src/python/nimbusml/datasets/__init__.py
|
michaelgsharp/NimbusML
|
50031157265f49eec85d27fe67582d9ddaf01ef9
|
[
"MIT"
] | 134
|
2018-11-01T22:15:24.000Z
|
2019-05-04T11:30:08.000Z
|
src/python/nimbusml/datasets/__init__.py
|
michaelgsharp/NimbusML
|
50031157265f49eec85d27fe67582d9ddaf01ef9
|
[
"MIT"
] | 226
|
2019-05-07T19:00:44.000Z
|
2021-01-06T07:59:48.000Z
|
src/python/nimbusml/datasets/__init__.py
|
michaelgsharp/NimbusML
|
50031157265f49eec85d27fe67582d9ddaf01ef9
|
[
"MIT"
] | 43
|
2019-05-15T20:19:42.000Z
|
2022-03-30T10:26:07.000Z
|
from .datasets import get_dataset, available_datasets, \
DataSetIris, DataSetInfert, Topics, Timeseries, \
DataSetAirQuality, WikiDetox_Train, WikiDetox_Test, \
Generated_Twitter_Train, Generated_Twitter_Test, \
Generated_Ticket_Train, Generated_Ticket_Test, \
Uci_Train, Uci_Test, MSLTR_Train, MSLTR_Test, \
FS_Train, FS_Test
__all__ = [
'get_dataset',
'available_datasets',
'DataSetIris',
'DataSetInfert', 'Topics', 'Timeseries',
'DataSetAirQuality', 'WikiDetox_Train', 'WikiDetox_Test',
'Generated_Twitter_Train', 'Generated_Twitter_Test',
'Generated_Ticket_Train', 'Generated_Ticket_Test',
'Uci_Train', 'Uci_Test', 'MSLTR_Train', 'MSLTR_Test',
'FS_Train', 'FS_Test'
]
| 36.65
| 61
| 0.732606
| 78
| 733
| 6.371795
| 0.269231
| 0.104628
| 0.076459
| 0.108652
| 0.957746
| 0.957746
| 0.957746
| 0.957746
| 0.957746
| 0.957746
| 0
| 0
| 0.152797
| 733
| 19
| 62
| 38.578947
| 0.800322
| 0
| 0
| 0
| 1
| 0
| 0.34925
| 0.120055
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.055556
| 0
| 0.055556
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
a0f40e31370dd08517214107b2eb581ee62cbb7b
| 102
|
py
|
Python
|
dazzler/electron/_runtime.py
|
T4rk1n/dazzler
|
69c49422dc19c910445ab265b1d3481041de8f43
|
[
"MIT"
] | 15
|
2019-12-19T11:57:30.000Z
|
2021-11-15T23:34:41.000Z
|
dazzler/electron/_runtime.py
|
T4rk1n/dazzler
|
69c49422dc19c910445ab265b1d3481041de8f43
|
[
"MIT"
] | 196
|
2019-09-21T15:10:14.000Z
|
2022-03-31T11:07:48.000Z
|
dazzler/electron/_runtime.py
|
T4rk1n/dazzler
|
69c49422dc19c910445ab265b1d3481041de8f43
|
[
"MIT"
] | 7
|
2019-10-30T19:38:15.000Z
|
2021-12-01T04:54:16.000Z
|
import sys
def is_compiled():
return getattr(sys, 'frozen', False) and hasattr(sys, '_MEIPASS')
| 17
| 69
| 0.696078
| 14
| 102
| 4.928571
| 0.857143
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.166667
| 102
| 5
| 70
| 20.4
| 0.811765
| 0
| 0
| 0
| 0
| 0
| 0.137255
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.333333
| true
| 0.333333
| 0.333333
| 0.333333
| 1
| 0
| 1
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
|
0
| 7
|
a0f9b5ff92b5b9c0305e539129849a7d5360c9c7
| 134
|
py
|
Python
|
Archive/aupyom-master/aupyom/util.py
|
MatthijsBrem/wheelchair-design-platform
|
7d1d574bec793a1737669e134b650c0f16eefd5e
|
[
"MIT"
] | null | null | null |
Archive/aupyom-master/aupyom/util.py
|
MatthijsBrem/wheelchair-design-platform
|
7d1d574bec793a1737669e134b650c0f16eefd5e
|
[
"MIT"
] | null | null | null |
Archive/aupyom-master/aupyom/util.py
|
MatthijsBrem/wheelchair-design-platform
|
7d1d574bec793a1737669e134b650c0f16eefd5e
|
[
"MIT"
] | null | null | null |
import pkg_resources
def example_audio_file():
return pkg_resources.resource_filename(__name__, "example_data/Tom's Dinner.wav")
| 26.8
| 85
| 0.813433
| 19
| 134
| 5.210526
| 0.842105
| 0.242424
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.097015
| 134
| 4
| 86
| 33.5
| 0.818182
| 0
| 0
| 0
| 0
| 0
| 0.216418
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.333333
| true
| 0
| 0.333333
| 0.333333
| 1
| 0
| 1
| 0
| 0
| null | 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 1
| 1
| 1
| 0
|
0
| 8
|
c22755c3ea41acfd9a7a02f1982c58e46a06136a
| 543
|
py
|
Python
|
tests/conftest.py
|
tomochikahara/configurl.py
|
e92b56b529c1897fde3e395c15963d1c1b9ebc89
|
[
"MIT"
] | null | null | null |
tests/conftest.py
|
tomochikahara/configurl.py
|
e92b56b529c1897fde3e395c15963d1c1b9ebc89
|
[
"MIT"
] | null | null | null |
tests/conftest.py
|
tomochikahara/configurl.py
|
e92b56b529c1897fde3e395c15963d1c1b9ebc89
|
[
"MIT"
] | null | null | null |
# -*- coding: utf-8 -*-
import pytest
from . import utils
@pytest.fixture()
def scheme():
return utils.random_string()
@pytest.fixture()
def user():
return utils.random_string()
@pytest.fixture()
def password():
return utils.random_string()
@pytest.fixture()
def hostname():
return utils.random_string()
@pytest.fixture()
def port():
return utils.random_port()
@pytest.fixture()
def url_string(scheme, user, password, hostname, port):
return utils.create_url_string(scheme, user, password, hostname, port)
| 15.514286
| 74
| 0.697974
| 68
| 543
| 5.455882
| 0.279412
| 0.210243
| 0.25876
| 0.247978
| 0.630728
| 0.630728
| 0.630728
| 0
| 0
| 0
| 0
| 0.002188
| 0.158379
| 543
| 34
| 75
| 15.970588
| 0.809628
| 0.038674
| 0
| 0.5
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.3
| false
| 0.15
| 0.1
| 0.3
| 0.7
| 0
| 0
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 1
| 0
|
0
| 7
|
df9ef906e55ad65f5ee50f1a62453cc401f77d1e
| 46,301
|
py
|
Python
|
OMG/env/env_wrapper.py
|
Webbah/sec-for-reinforcement-learning
|
19db622dce4963d25cb1b6e4ae12ddf98b6d27d2
|
[
"MIT"
] | 2
|
2021-12-16T12:49:26.000Z
|
2022-01-28T19:18:43.000Z
|
OMG/env/env_wrapper.py
|
Webbah/sec-for-reinforcement-learning
|
19db622dce4963d25cb1b6e4ae12ddf98b6d27d2
|
[
"MIT"
] | null | null | null |
OMG/env/env_wrapper.py
|
Webbah/sec-for-reinforcement-learning
|
19db622dce4963d25cb1b6e4ae12ddf98b6d27d2
|
[
"MIT"
] | null | null | null |
import platform
from functools import partial
from typing import Union
import gym
import matplotlib.pyplot as plt
import numpy as np
import pandas as pd
from openmodelica_microgrid_gym.util import Fastqueue
from openmodelica_microgrid_gym.util.transforms import dq0_to_abc, abc_to_dq0, abc_to_alpha_beta
from stable_baselines3.common.monitor import Monitor
from stable_baselines3.common.type_aliases import GymStepReturn
from stochastic.processes import VasicekProcess
from OMG.env.randproc_wrapper import RandProcessWrapper
from OMG.util.config import cfg
from OMG.env.random_load import RandomLoad
from OMG.env.vctrl_single_inv import net
class BaseWrapper(Monitor):
def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000,
recorder=None, n_trail="", gamma=0,
number_learing_steps=500000, number_past_vals=0):
"""
Base Env Wrapper to add features to the env-observations and adds information to env.step output which can be
used in case of an continuing (non-episodic) task to reset the environment without being terminated by done
Hint: is_dq0: if the control is done in dq0; if True, the action is tranfered to abc-system using env-phase and
the observation is tranfered back to dq using the next phase
:param env: Gym environment to wrap
:param number_of_features: Number of features added to the env observations in the wrapped step method
:param training_episode_length: (For non-episodic environments) number of training steps after the env is reset
by the agent for training purpose (Set to inf in test env!)
"""
super().__init__(env)
self.observation_space = gym.spaces.Box(
low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf),
high=np.full(env.observation_space.shape[0] + number_of_features, np.inf))
# increase action-space for PI-seperation
# self.action_space=gym.spaces.Box(low=np.full(d_i, -1), high=np.full(d_i, 1))
self.training_episode_length = training_episode_length
self.recorder = recorder
self._n_training_steps = 0
self._i_phasor = 0.0
self.i_a = []
self.i_b = []
self.i_c = []
self.v_a = []
self.v_b = []
self.v_c = []
self._v_pahsor = 0.0
self.n_episode = 0
self.R_training = []
self.i_phasor_training = []
self.v_phasor_training = []
self.reward_episode_mean = []
self.n_trail = n_trail
self.phase = []
self.used_P = np.zeros(self.action_space.shape)
self.gamma = gamma
self.number_learing_steps = number_learing_steps
self.delay_queues = [Fastqueue(1, 3) for _ in range(number_past_vals)]
def step(self, action: Union[np.ndarray, int]) -> GymStepReturn:
"""
Adds additional features and infos after the gym env.step() function is executed.
Triggers the env to reset without done=True every training_episode_length steps
"""
if cfg['is_dq0']:
# Action: dq0 -> abc
action_abc = dq0_to_abc(action, self.env.net.components[0].phase)
else:
action_abc = action
obs, reward, done, info = super().step(action_abc)
if len(obs) > 9:
# ASSUME THAT LOADCURRENT is included!
obs[9:12] = obs[9:12] / net['inverter1'].i_lim
super().render()
self._n_training_steps += 1
# if self._n_training_steps % round(self.training_episode_length / 10) == 0:
# self.env.on_episode_reset_callback()
if self._n_training_steps % self.training_episode_length == 0:
# info["timelimit_reached"] = True
done = True
super().close()
# add wanted features here (add appropriate self.observation in init!!)
# calculate magnitude of current phasor abc
# self.i_phasor = self.cal_phasor_magnitude(obs[0:3])
# self.v_phasor = self.cal_phasor_magnitude(obs[3:6])
if cfg['loglevel'] == 'train':
self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1])
self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim)
self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim)
self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1])
self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1])
self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1])
self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1])
self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1])
self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1])
self.phase.append(self.env.net.components[0].phase)
if done:
self.reward_episode_mean.append(np.mean(self.rewards))
self.n_episode += 1
if cfg['loglevel'] == 'train':
episode_data = {"Name": "On_Training",
"Episode_number": self.n_episode,
"Episode_length": self._n_training_steps,
"R_load_training": self.R_training,
"i_phasor_training": self.i_phasor_training,
"i_a_training": self.i_a,
"i_b_training": self.i_b,
"i_c_training": self.i_c,
"v_a_training": self.v_a,
"v_b_training": self.v_b,
"v_c_training": self.v_c,
"v_phasor_training": self.v_phasor_training,
"Rewards": self.rewards,
"Phase": self.phase,
"Node": platform.uname().node,
"Trial number": self.n_trail,
"Database name": cfg['STUDY_NAME'],
"Reward function": 'rew.rew_fun_dq0',
}
"""
add here "model_params_change": callback.params_change, from training_recorder?
"""
# stores data locally to cfg['meas_data_folder'], needs to be grept / transfered via reporter to mongodc
self.recorder.save_to_json('Trial_number_' + self.n_trail, episode_data)
# clear lists
self.R_training = []
self.i_phasor_training = []
self.v_phasor_training = []
self.i_a = []
self.i_b = []
self.i_c = []
self.v_a = []
self.v_b = []
self.v_c = []
self.phase = []
if cfg['is_dq0']:
# if setpoint in dq: Transform measurement to dq0!!!!
obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase)
obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase)
"""
Features
"""
error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess
# delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit
"""
Following maps the return to the range of [-0.5, 0.5] in
case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude
exceeds the limit (no extra env interruption here!, all phases should be validated separately)
"""
# obs = np.append(obs, self.i_phasor - 0.5)
obs = np.append(obs, error)
# obs = np.append(obs, np.sin(self.env.net.components[0].phase))
# obs = np.append(obs, np.cos(self.env.net.components[0].phase))
"""
Add used action to the NN input to learn delay
"""
obs = np.append(obs, self.used_P)
obs_delay_array = self.shift_and_append(obs[3:6])
obs = np.append(obs, obs_delay_array)
self.used_P = np.copy(action)
return obs, reward, done, info
def reset(self, **kwargs):
"""
Reset the wrapped env and the flag for the number of training steps after the env is reset
by the agent for training purpose and internal counters
"""
[x.clear() for x in self.delay_queues]
obs = super().reset()
if len(obs) > 9:
# ASSUME THAT LOADCURRENT is included!
obs[9:12] = obs[9:12] / net['inverter1'].i_lim
self._n_training_steps = 0
self.used_P = np.zeros(self.action_space.shape)
if cfg['loglevel'] == 'train':
self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1])
self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim)
self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim)
self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1])
self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1])
self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1])
self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1])
self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1])
self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1])
self.phase.append(self.env.net.components[0].phase)
if cfg['is_dq0']:
# if setpoint in dq: Transform measurement to dq0!!!!
obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase)
obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase)
"""
Features
"""
error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess
# delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit
"""
Following maps the return to the range of [-0.5, 0.5] in
case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude
exceeds the limit (no extra env interruption here!, all phases should be validated separately)
"""
# obs = np.append(obs, self.i_phasor - 0.5)
obs = np.append(obs, error)
# obs = np.append(obs, np.sin(self.env.net.components[0].phase))
# obs = np.append(obs, np.cos(self.env.net.components[0].phase))
# obs = np.append(obs, delta_i_lim_i_phasor)
"""
Add used action to the NN input to learn delay
"""
obs = np.append(obs, self.used_P)
obs_delay_array = self.shift_and_append(obs[3:6])
obs = np.append(obs, obs_delay_array)
return obs
def cal_phasor_magnitude(self, abc: np.array) -> float:
"""
Calculated the magnitude of a phasor in a three phase system. M
:param abc: Due to limit normed currents or voltages in abc frame
:return: magnitude of the current or voltage phasor
"""
# calculate magnitude of current phasor abc-> alpha,beta ->|sqrt(alpha² + beta²)|
i_alpha_beta = abc_to_alpha_beta(abc)
i_phasor_mag = np.sqrt(i_alpha_beta[0] ** 2 + i_alpha_beta[1] ** 2)
return i_phasor_mag
def shift_and_append(self, obs):
"""
Takes the observation and shifts throught the queue
every queue output is added to total obs
"""
obs_delay_array = np.array([])
obs_temp = obs
for queue in self.delay_queues:
obs_temp = queue.shift(obs_temp)
obs_delay_array = np.append(obs_delay_array, obs_temp)
return obs_delay_array
class FeatureWrapper(Monitor):
def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000,
recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0,
penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0,
number_learing_steps=500000): # , use_past_vals=False, number_past_vals=0):
"""
Env Wrapper to add features to the env-observations and adds information to env.step output which can be used in
case of an continuing (non-episodic) task to reset the environment without being terminated by done
Hint: is_dq0: if the control is done in dq0; if True, the action is tranfered to abc-system using env-phase and
the observation is tranfered back to dq using the next phase
:param env: Gym environment to wrap
:param number_of_features: Number of features added to the env observations in the wrapped step method
:param training_episode_length: (For non-episodic environments) number of training steps after the env is reset
by the agent for training purpose (Set to inf in test env!)
"""
super().__init__(env)
self.observation_space = gym.spaces.Box(
low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf),
high=np.full(env.observation_space.shape[0] + number_of_features, np.inf))
# increase action-space for PI-seperation
# self.action_space=gym.spaces.Box(low=np.full(d_i, -1), high=np.full(d_i, 1))
self.training_episode_length = training_episode_length
self.recorder = recorder
self._n_training_steps = 0
self._i_phasor = 0.0
self.i_a = []
self.i_b = []
self.i_c = []
self.v_a = []
self.v_b = []
self.v_c = []
self._v_pahsor = 0.0
self.n_episode = 0
self.R_training = []
self.i_phasor_training = []
self.v_phasor_training = []
self.reward_episode_mean = []
self.n_trail = n_trail
self.phase = []
self.integrator_sum = np.zeros(self.action_space.shape)
self.integrator_weight = integrator_weight
self.antiwindup_weight = antiwindup_weight
self.used_P = np.zeros(self.action_space.shape)
self.used_I = np.zeros(self.action_space.shape)
self.gamma = gamma
self.penalty_I_weight = penalty_I_weight
self.penalty_P_weight = penalty_P_weight
self.t_start_penalty_I = t_start_penalty_I
self.t_start_penalty_P = t_start_penalty_P
self.number_learing_steps = number_learing_steps
self.integrator_sum_list0 = []
self.integrator_sum_list1 = []
self.integrator_sum_list2 = []
self.action_P0 = []
self.action_P1 = []
self.action_P2 = []
self.action_I0 = []
self.action_I1 = []
self.action_I2 = []
def step(self, action: Union[np.ndarray, int]) -> GymStepReturn:
"""
Adds additional features and infos after the gym env.step() function is executed.
Triggers the env to reset without done=True every training_episode_length steps
"""
action_P = action[0:3]
action_I = action[3:6]
self.integrator_sum += action_I * self.integrator_weight
action_PI = action_P + self.integrator_sum
if cfg['is_dq0']:
# Action: dq0 -> abc
action_abc = dq0_to_abc(action_PI, self.env.net.components[0].phase)
# check if m_abc will be clipped
if np.any(abs(action_abc) > 1):
clipped_action = np.clip(action_abc, -1, 1)
delta_action = clipped_action - action_abc
# if, reduce integrator by clipped delta
action_delta = abc_to_dq0(delta_action, self.env.net.components[0].phase)
self.integrator_sum += action_delta * self.antiwindup_weight
# clip_reward = np.clip(np.sum(np.abs(delta_action) * \
# (-1 / (self.env.net.components[0].v_lim / self.env.net.components[
# 0].v_DC))) / 3 * (1 - self.gamma),
# -1, 0)
clip_reward = 0
action_abc = clipped_action
else:
clip_reward = 0
obs, reward, done, info = super().step(action_abc)
reward = reward + clip_reward
if len(obs) > 9:
# ASSUME THAT LOADCURRENT is included!
obs[9:12] = obs[9:12] / net['inverter1'].i_lim
super().render()
integrator_penalty = np.sum(-((np.abs(action_I)) ** 0.5)) * (1 - self.gamma) / 3
# action_P_penalty = - np.sum((np.abs(action_P - self.used_P)) ** 0.5) * (1 - self.gamma) / 3
action_P_penalty = np.sum(-((np.abs(action_P)) ** 0.5)) * (1 - self.gamma) / 3
# reward_weight is = 1
if self.total_steps > self.t_start_penalty_I:
penalty_I_weight_scale = 1 / (self.t_start_penalty_I - self.number_learing_steps) * self.total_steps - \
self.number_learing_steps / (self.t_start_penalty_I - self.number_learing_steps)
else:
penalty_I_weight_scale = 1
if self.total_steps > self.t_start_penalty_P:
penalty_P_weight_scale = 1 / (self.t_start_penalty_P - self.number_learing_steps) * self.total_steps - \
self.number_learing_steps / (self.t_start_penalty_P - self.number_learing_steps)
else:
penalty_P_weight_scale = 1
reward = (reward + (self.penalty_I_weight * penalty_I_weight_scale) * integrator_penalty
+ self.penalty_P_weight * penalty_P_weight_scale * action_P_penalty) \
/ (1 + self.penalty_I_weight * penalty_I_weight_scale + self.penalty_P_weight * penalty_P_weight_scale)
self._n_training_steps += 1
# if self._n_training_steps % round(self.training_episode_length / 10) == 0:
# self.env.on_episode_reset_callback()
if self._n_training_steps % self.training_episode_length == 0:
# info["timelimit_reached"] = True
done = True
super().close()
# add wanted features here (add appropriate self.observation in init!!)
# calculate magnitude of current phasor abc
self.i_phasor = self.cal_phasor_magnitude(obs[0:3])
self.v_phasor = self.cal_phasor_magnitude(obs[3:6])
if cfg['loglevel'] == 'train':
self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1])
self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim)
self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim)
self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1])
self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1])
self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1])
self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1])
self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1])
self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1])
self.phase.append(self.env.net.components[0].phase)
self.integrator_sum_list0.append(self.integrator_sum[0])
self.integrator_sum_list1.append(self.integrator_sum[1])
self.integrator_sum_list2.append(self.integrator_sum[2])
self.action_P0.append(np.float64(action_P[0]))
self.action_P1.append(np.float64(action_P[1]))
self.action_P2.append(np.float64(action_P[2]))
self.action_I0.append(np.float64(action_I[0]))
self.action_I1.append(np.float64(action_I[1]))
self.action_I2.append(np.float64(action_I[2]))
if cfg['is_dq0']:
# if setpoint in dq: Transform measurement to dq0!!!!
obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase)
obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase)
"""
Features
"""
error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess
# delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit
"""
Following maps the return to the range of [-0.5, 0.5] in
case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude
exceeds the limit (no extra env interruption here!, all phases should be validated separately)
"""
# obs = np.append(obs, self.i_phasor - 0.5)
obs = np.append(obs, error)
# obs = np.append(obs, np.sin(self.env.net.components[0].phase))
# obs = np.append(obs, np.cos(self.env.net.components[0].phase))
"""
Add used action to the NN input to learn delay
"""
obs = np.append(obs, self.used_P)
obs = np.append(obs, self.used_I)
# obs = np.append(obs, self.used_action)
self.used_P = np.copy(action_P)
self.used_I = np.copy(self.integrator_sum)
# self.used_P = action_P
# self.used_I = self.integrator_sum
if done:
self.reward_episode_mean.append(np.mean(self.rewards))
self.n_episode += 1
if cfg['loglevel'] == 'train':
episode_data = {"Name": "On_Training",
"Episode_number": self.n_episode,
"Episode_length": self._n_training_steps,
"R_load_training": self.R_training,
"i_phasor_training": self.i_phasor_training,
"i_a_training": self.i_a,
"i_b_training": self.i_b,
"i_c_training": self.i_c,
"v_a_training": self.v_a,
"v_b_training": self.v_b,
"v_c_training": self.v_c,
"v_phasor_training": self.v_phasor_training,
"Rewards": self.rewards,
"Phase": self.phase,
"Node": platform.uname().node,
"Trial number": self.n_trail,
"Database name": cfg['STUDY_NAME'],
"Reward function": 'rew.rew_fun_dq0',
'Integrator0': self.integrator_sum_list0,
'Integrator1': self.integrator_sum_list1,
'Integrator2': self.integrator_sum_list2,
'actionP0': self.action_P0,
'actionP1': self.action_P1,
'actionP2': self.action_P2,
'actionI0': self.action_I0,
'actionI1': self.action_I1,
'actionI2': self.action_I2
}
"""
add here "model_params_change": callback.params_change, from training_recorder?
"""
# stores data locally to cfg['meas_data_folder'], needs to be grept / transfered via reporter to mongodc
self.recorder.save_to_json('Trial_number_' + self.n_trail, episode_data)
# clear lists
self.R_training = []
self.i_phasor_training = []
self.v_phasor_training = []
self.i_a = []
self.i_b = []
self.i_c = []
self.v_a = []
self.v_b = []
self.v_c = []
self.phase = []
# if self._n_training_steps > 500:
super().close()
# plt.plot(self.integrator_sum_list0)
# plt.plot(self.integrator_sum_list1)
# plt.plot(self.integrator_sum_list2)
# plt.ylabel('intergratorzustand')
# plt.show()
return obs, reward, done, info
def reset(self, **kwargs):
"""
Reset the wrapped env and the flag for the number of training steps after the env is reset
by the agent for training purpose and internal counters
"""
obs = super().reset()
if len(obs) > 9:
# ASSUME THAT LOADCURRENT is included!
obs[9:12] = obs[9:12] / net['inverter1'].i_lim
self._n_training_steps = 0
self.integrator_sum = np.zeros(self.action_space.shape)
self.used_P = np.zeros(self.action_space.shape)
self.used_I = np.zeros(self.action_space.shape)
self.i_phasor = self.cal_phasor_magnitude(obs[0:3])
self.v_phasor = self.cal_phasor_magnitude(obs[3:6])
if cfg['loglevel'] == 'train':
self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1])
self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim)
self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim)
self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1])
self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1])
self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1])
self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1])
self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1])
self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1])
self.phase.append(self.env.net.components[0].phase)
if cfg['is_dq0']:
# if setpoint in dq: Transform measurement to dq0!!!!
obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase)
obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase)
"""
Features
"""
error = (obs[6:9] - obs[3:6]) / 2 # control error: v_setpoint - v_mess
# delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit
"""
Following maps the return to the range of [-0.5, 0.5] in
case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude
exceeds the limit (no extra env interruption here!, all phases should be validated separately)
"""
# obs = np.append(obs, self.i_phasor - 0.5)
obs = np.append(obs, error)
# obs = np.append(obs, np.sin(self.env.net.components[0].phase))
# obs = np.append(obs, np.cos(self.env.net.components[0].phase))
# obs = np.append(obs, delta_i_lim_i_phasor)
"""
Add used action to the NN input to learn delay
"""
obs = np.append(obs, self.used_P)
obs = np.append(obs, self.used_I)
# obs = np.append(obs, self.used_action)
return obs
def cal_phasor_magnitude(self, abc: np.array) -> float:
"""
Calculated the magnitude of a phasor in a three phase system. M
:param abc: Due to limit normed currents or voltages in abc frame
:return: magnitude of the current or voltage phasor
"""
# calculate magnitude of current phasor abc-> alpha,beta ->|sqrt(alpha² + beta²)|
i_alpha_beta = abc_to_alpha_beta(abc)
i_phasor_mag = np.sqrt(i_alpha_beta[0] ** 2 + i_alpha_beta[1] ** 2)
return i_phasor_mag
class FeatureWrapper_pastVals(FeatureWrapper):
def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 500000,
recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0,
penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0,
number_learing_steps=500000, number_past_vals=10):
"""
Env Wrapper which adds the number_past_vals voltage ([3:6]!!!) observations to the observations.
Initialized with zeros!
"""
super().__init__(env, number_of_features, training_episode_length,
recorder, n_trail, integrator_weight, antiwindup_weight, gamma,
penalty_I_weight, penalty_P_weight, t_start_penalty_I, t_start_penalty_P,
number_learing_steps)
# self.observation_space = gym.spaces.Box(
# low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf),
# high=np.full(env.observation_space.shape[0] + number_of_features, np.inf))
self.delay_queues = [Fastqueue(1, 3) for _ in range(number_past_vals)]
def step(self, action: Union[np.ndarray, int]) -> GymStepReturn:
obs, reward, done, info = super().step(action)
obs_delay_array = self.shift_and_append(obs[3:6])
obs = np.append(obs, obs_delay_array)
return obs, reward, done, info
def reset(self, **kwargs):
"""
Reset the wrapped env and the flag for the number of training steps after the env is reset
by the agent for training purpose and internal counters
"""
[x.clear() for x in self.delay_queues]
obs = super().reset()
obs_delay_array = self.shift_and_append(obs[3:6])
obs = np.append(obs, obs_delay_array)
return obs
def shift_and_append(self, obs):
"""
Takes the observation and shifts throught the queue
every queue output is added to total obs
"""
obs_delay_array = np.array([])
obs_temp = obs
for queue in self.delay_queues:
obs_temp = queue.shift(obs_temp)
obs_delay_array = np.append(obs_delay_array, obs_temp)
return obs_delay_array
class FeatureWrapper_futureVals(FeatureWrapper):
def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000,
recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0,
penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0,
number_learing_steps=500000, number_future_vals=0, future_data=''):
"""
Env Wrapper which adds the number_future_vals R-values to the observations.
Initialized with zeros!
Therfore it uses the in the init defined pkl
"""
super().__init__(env, number_of_features + number_future_vals, training_episode_length,
recorder, n_trail, integrator_weight, antiwindup_weight, gamma,
penalty_I_weight, penalty_P_weight, t_start_penalty_I, t_start_penalty_P,
number_learing_steps)
gen = RandProcessWrapper(VasicekProcess, proc_kwargs=dict(speed=800, vol=40, mean=50), initial=50,
bounds=(14, 200))
self.load_curve = RandomLoad(2881, net.ts, gen,
load_curve=pd.read_pickle(
# 'experiments/hp_tune/data/R_load_hard_test_case_60_seconds_noReset.pkl'))
future_data))
self.future_vals = []
self.number_future_vals = number_future_vals
def step(self, action: Union[np.ndarray, int]) -> GymStepReturn:
obs, reward, done, info = super().step(action)
self.future_vals = [2 * (self.load_curve.give_dataframe_value(self.env.sim_time_interval[0] +
i * self.env.time_step_size,
col='r_load.resistor' + Rx + '.R') - 14) / (
200 - 14) - 1
# NORMALIZATION!
for i in range(self.number_future_vals) for Rx in ['1']] # , '2', '3']]
obs = np.append(obs, self.future_vals)
return obs, reward, done, info
def reset(self, **kwargs):
"""
Reset the wrapped env and the flag for the number of training steps after the env is reset
by the agent for training purpose and internal counters
"""
obs = super().reset()
self.future_vals = [2 * (self.load_curve.give_dataframe_value(self.env.sim_time_interval[0] +
i * self.env.time_step_size,
col='r_load.resistor' + Rx + '.R') - 14) / (
200 - 14) - 1
# NORMALIZATION!
for i in range(self.number_future_vals) for Rx in ['1']] # , '2', '3']]
obs = np.append(obs, self.future_vals)
return obs
class FeatureWrapper_I_controller(Monitor):
def __init__(self, env, number_of_features: int = 0, training_episode_length: int = 5000000,
recorder=None, n_trail="", integrator_weight=net.ts, antiwindup_weight=net.ts, gamma=0,
penalty_I_weight=1, penalty_P_weight=1, t_start_penalty_I=0, t_start_penalty_P=0,
number_learing_steps=500000, Ki=12, number_past_vals=0):
"""
Env Wrapper to add features to the env-observations and adds information to env.step output which can be used in
case of an continuing (non-episodic) task to reset the environment without being terminated by done
Hint: is_dq0: if the control is done in dq0; if True, the action is tranfered to abc-system using env-phase and
the observation is tranfered back to dq using the next phase
:param env: Gym environment to wrap
:param number_of_features: Number of features added to the env observations in the wrapped step method
:param training_episode_length: (For non-episodic environments) number of training steps after the env is reset
by the agent for training purpose (Set to inf in test env!)
"""
super().__init__(env)
self.observation_space = gym.spaces.Box(
low=np.full(env.observation_space.shape[0] + number_of_features, -np.inf),
high=np.full(env.observation_space.shape[0] + number_of_features, np.inf))
# increase action-space for PI-seperation
# self.action_space=gym.spaces.Box(low=np.full(d_i, -1), high=np.full(d_i, 1))
self.training_episode_length = training_episode_length
self.recorder = recorder
self._n_training_steps = 0
self._i_phasor = 0.0
self.i_a = []
self.i_b = []
self.i_c = []
self.v_a = []
self.v_b = []
self.v_c = []
self._v_pahsor = 0.0
self.n_episode = 0
self.R_training = []
self.i_phasor_training = []
self.v_phasor_training = []
self.reward_episode_mean = []
self.n_trail = n_trail
self.phase = []
self.integrator_sum = np.zeros(self.action_space.shape)
self.integrator_weight = integrator_weight
self.antiwindup_weight = antiwindup_weight
self.used_P = np.zeros(self.action_space.shape)
self.used_I = np.zeros(self.action_space.shape)
self.gamma = gamma
self.penalty_I_weight = penalty_I_weight
self.penalty_P_weight = penalty_P_weight
self.t_start_penalty_I = t_start_penalty_I
self.t_start_penalty_P = t_start_penalty_P
self.number_learing_steps = number_learing_steps
self.Ki = Ki
self.delay_queues = [Fastqueue(1, 3) for _ in range(number_past_vals)]
def step(self, action: Union[np.ndarray, int]) -> GymStepReturn:
"""
Adds additional features and infos after the gym env.step() function is executed.
Triggers the env to reset without done=True every training_episode_length steps
"""
action_PI = action + self.integrator_sum
if cfg['is_dq0']:
# Action: dq0 -> abc
action_abc = dq0_to_abc(action_PI, self.env.net.components[0].phase)
# check if m_abc will be clipped
if np.any(abs(action_abc) > 1):
# if, reduce integrator by clipped delta
action_delta = abc_to_dq0(np.clip(action_abc, -1, 1) - action_abc, self.env.net.components[0].phase)
# self.integrator_sum += action_delta * self.antiwindup_weight
self.integrator_sum += action_delta * self.env.time_step_size
obs, reward, done, info = super().step(action_abc)
if len(obs) > 9:
# ASSUME THAT LOADCURRENT is included!
obs[9:12] = obs[9:12] / net['inverter1'].i_lim
super().render()
self._n_training_steps += 1
# if self._n_training_steps % round(self.training_episode_length / 10) == 0:
# self.env.on_episode_reset_callback()
if self._n_training_steps % self.training_episode_length == 0:
# info["timelimit_reached"] = True
done = True
super().close()
# add wanted features here (add appropriate self.observation in init!!)
# calculate magnitude of current phasor abc
self.i_phasor = self.cal_phasor_magnitude(obs[0:3])
self.v_phasor = self.cal_phasor_magnitude(obs[3:6])
if cfg['loglevel'] == 'train':
self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1])
self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim)
self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim)
self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1])
self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1])
self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1])
self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1])
self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1])
self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1])
self.phase.append(self.env.net.components[0].phase)
if done:
self.reward_episode_mean.append(np.mean(self.rewards))
self.n_episode += 1
if cfg['loglevel'] == 'train':
episode_data = {"Name": "On_Training",
"Episode_number": self.n_episode,
"Episode_length": self._n_training_steps,
"R_load_training": self.R_training,
"i_phasor_training": self.i_phasor_training,
"i_a_training": self.i_a,
"i_b_training": self.i_b,
"i_c_training": self.i_c,
"v_a_training": self.v_a,
"v_b_training": self.v_b,
"v_c_training": self.v_c,
"v_phasor_training": self.v_phasor_training,
"Rewards": self.rewards,
"Phase": self.phase,
"Node": platform.uname().node,
"Trial number": self.n_trail,
"Database name": cfg['STUDY_NAME'],
"Reward function": 'rew.rew_fun_dq0',
}
"""
add here "model_params_change": callback.params_change, from training_recorder?
"""
# stores data locally to cfg['meas_data_folder'], needs to be grept / transfered via reporter to mongodc
self.recorder.save_to_json('Trial_number_' + self.n_trail, episode_data)
# clear lists
self.R_training = []
self.i_phasor_training = []
self.v_phasor_training = []
self.i_a = []
self.i_b = []
self.i_c = []
self.v_a = []
self.v_b = []
self.v_c = []
self.phase = []
if cfg['is_dq0']:
# if setpoint in dq: Transform measurement to dq0!!!!
obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase)
obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase)
"""
Features
"""
error = obs[6:9] - obs[3:6] # control error: v_setpoint - v_mess
# delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit
# self.integrator_sum += error * self.integrator_weight * self.Ki
self.integrator_sum += error * self.env.time_step_size * self.Ki
"""
Following maps the return to the range of [-0.5, 0.5] in
case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude
exceeds the limit (no extra env interruption here!, all phases should be validated separately)
"""
# obs = np.append(obs, self.i_phasor - 0.5)
obs = np.append(obs, error)
# obs = np.append(obs, np.sin(self.env.net.components[0].phase))
# obs = np.append(obs, np.cos(self.env.net.components[0].phase))
"""
Add pastvals
"""
obs_delay_array = self.shift_and_append(obs[3:6])
obs = np.append(obs, obs_delay_array)
obs = np.append(obs, self.integrator_sum)
"""
Add used action to the NN input to learn delay
"""
obs = np.append(obs, self.used_P)
obs = np.append(obs, self.used_I)
# obs = np.append(obs, self.used_action)
self.used_P = np.copy(action)
self.used_I = np.copy(self.integrator_sum)
# self.used_P = action_P
# self.used_I = self.integrator_sum
return obs, reward, done, info
def reset(self, **kwargs):
"""
Reset the wrapped env and the flag for the number of training steps after the env is reset
by the agent for training purpose and internal counters
"""
[x.clear() for x in self.delay_queues]
obs = super().reset()
if len(obs) > 9:
# ASSUME THAT LOADCURRENT is included!
obs[9:12] = obs[9:12] / net['inverter1'].i_lim
self._n_training_steps = 0
self.integrator_sum = np.zeros(self.action_space.shape)
self.used_P = np.zeros(self.action_space.shape)
self.used_I = np.zeros(self.action_space.shape)
self.i_phasor = self.cal_phasor_magnitude(obs[0:3])
self.v_phasor = self.cal_phasor_magnitude(obs[3:6])
if cfg['loglevel'] == 'train':
self.R_training.append(self.env.history.df['r_load.resistor1.R'].iloc[-1])
self.i_phasor_training.append((self.i_phasor) * self.env.net['inverter1'].i_lim)
self.v_phasor_training.append((self.v_phasor) * self.env.net['inverter1'].v_lim)
self.i_a.append(self.env.history.df['lc.inductor1.i'].iloc[-1])
self.i_b.append(self.env.history.df['lc.inductor2.i'].iloc[-1])
self.i_c.append(self.env.history.df['lc.inductor3.i'].iloc[-1])
self.v_a.append(self.env.history.df['lc.capacitor1.v'].iloc[-1])
self.v_b.append(self.env.history.df['lc.capacitor2.v'].iloc[-1])
self.v_c.append(self.env.history.df['lc.capacitor3.v'].iloc[-1])
self.phase.append(self.env.net.components[0].phase)
if cfg['is_dq0']:
# if setpoint in dq: Transform measurement to dq0!!!!
obs[3:6] = abc_to_dq0(obs[3:6], self.env.net.components[0].phase)
obs[0:3] = abc_to_dq0(obs[0:3], self.env.net.components[0].phase)
"""
Features
"""
error = obs[6:9] - obs[3:6] # control error: v_setpoint - v_mess
# delta_i_lim_i_phasor = 1 - self.i_phasor # delta to current limit
# self.integrator_sum += error * self.integrator_weight * self.Ki
self.integrator_sum += error * self.env.time_step_size * self.Ki
"""
Following maps the return to the range of [-0.5, 0.5] in
case of magnitude = [-lim, lim] using (phasor_mag) - 0.5. 0.5 can be exceeded in case of the magnitude
exceeds the limit (no extra env interruption here!, all phases should be validated separately)
"""
# obs = np.append(obs, self.i_phasor - 0.5)
obs = np.append(obs, error)
# obs = np.append(obs, np.sin(self.env.net.components[0].phase))
# obs = np.append(obs, np.cos(self.env.net.components[0].phase))
"""
Add pastvals and integrator sum
"""
obs_delay_array = self.shift_and_append(obs[3:6])
obs = np.append(obs, obs_delay_array)
obs = np.append(obs, self.integrator_sum)
# obs = np.append(obs, delta_i_lim_i_phasor)
"""
Add used action to the NN input to learn delay
"""
obs = np.append(obs, self.used_P)
obs = np.append(obs, self.used_I)
# obs = np.append(obs, self.used_action)
return obs
def cal_phasor_magnitude(self, abc: np.array) -> float:
"""
Calculated the magnitude of a phasor in a three phase system. M
:param abc: Due to limit normed currents or voltages in abc frame
:return: magnitude of the current or voltage phasor
"""
# calculate magnitude of current phasor abc-> alpha,beta ->|sqrt(alpha² + beta²)|
i_alpha_beta = abc_to_alpha_beta(abc)
i_phasor_mag = np.sqrt(i_alpha_beta[0] ** 2 + i_alpha_beta[1] ** 2)
return i_phasor_mag
def shift_and_append(self, obs):
"""
Takes the observation and shifts throught the queue
every queue output is added to total obs
"""
obs_delay_array = np.array([])
obs_temp = obs
for queue in self.delay_queues:
obs_temp = queue.shift(obs_temp)
obs_delay_array = np.append(obs_delay_array, obs_temp)
return obs_delay_array
| 43.63902
| 120
| 0.584005
| 6,226
| 46,301
| 4.12769
| 0.061195
| 0.028873
| 0.023114
| 0.027783
| 0.922876
| 0.90953
| 0.895366
| 0.892642
| 0.882291
| 0.874548
| 0
| 0.022496
| 0.304918
| 46,301
| 1,060
| 121
| 43.680189
| 0.776031
| 0.218419
| 0
| 0.830123
| 0
| 0
| 0.057148
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.036778
| false
| 0
| 0.028021
| 0
| 0.101576
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
dfe13d4f5852b24009308c4ad9a8a657cb3b2fa1
| 3,453
|
py
|
Python
|
test.py
|
MIAWU-jojo/NLP-MyRetro-jieba
|
6f80ed442b63a15ff7f12c42e53f6e2340a50ced
|
[
"MIT"
] | null | null | null |
test.py
|
MIAWU-jojo/NLP-MyRetro-jieba
|
6f80ed442b63a15ff7f12c42e53f6e2340a50ced
|
[
"MIT"
] | null | null | null |
test.py
|
MIAWU-jojo/NLP-MyRetro-jieba
|
6f80ed442b63a15ff7f12c42e53f6e2340a50ced
|
[
"MIT"
] | null | null | null |
import os
import jieba.posseg
from Postag import cut_main
from Tokenizer import gt
from timeit import default_timer as timer
if __name__ == '__main__':
# 分词标注测评
ok = 0
Precision = 0
Recall = 0
tic = timer()
with open('test.txt', 'r', encoding='utf-8') as f:
while True:
line = f.readline()
if not line:
break
pred = list(gt.cut_DAG(line))
# 以jieba分词为评测标准
ans = list(jieba.cut(line, ))
# print(ans)
Precision = Precision + len(pred)
Recall = Recall + len(ans)
for a in pred:
if a in ans:
ok = ok + 1
# print(ok)
toc = timer()
with open('test.txt', 'r', encoding='utf-8') as f:
while True:
line = f.readline()
if not line:
break
# pred = list(cut(line))
# 以jieba分词为评测标准
ans = list(jieba.cut(line, ))
# print(ans)
# Precision = Precision + len(pred)
# Recall = Recall + len(ans)
# for a in pred:
# if a in ans:
# ok = ok + 1
# print(ok)
tac = timer()
precision = ok / Precision
recall = ok / Recall
f1 = 2 * precision * recall / (precision + recall)
print("-----------------分词------------------")
print("Precision:{}, Recall:{}, F1:{}".format(precision, recall, f1))
fsize = os.path.getsize('test.txt')
fszie = fsize / 1024
time = 2 * toc - tic - tac
speed = fszie / time
# print(fszie)
# print(tac - toc)
# print(toc - tic)
print("用时 %g s" % (time))
print("速度为 %g KB/s" % (speed))
# 词性标注评测
print("-------------------词性标注+分词--------------------")
ok = 0
Precision = 0
Recall = 0
tic = timer()
with open('test.txt', 'r', encoding='utf-8') as f:
while True:
line = f.readline()
if not line:
break
pred = list(cut_main(line))
# 以jieba分词为评测标准
ans = list(jieba.posseg.cut(line, ))
# print(ans)
Precision = Precision + len(pred)
Recall = Recall + len(ans)
for a in pred:
if a in ans:
ok = ok + 1
# print(ok)
toc = timer()
with open('test.txt', 'r', encoding='utf-8') as f:
while True:
line = f.readline()
if not line:
break
# pred = list(cut(line))
# 以jieba分词为评测标准
ans = list(jieba.posseg.cut(line, ))
# print(ans)
# Precision = Precision + len(pred)
# Recall = Recall + len(ans)
# for a in pred:
# if a in ans:
# ok = ok + 1
# print(ok)
tac = timer()
precision = ok / Precision
recall = ok / Recall
f1 = 2 * precision * recall / (precision + recall)
print("Precision:{}, Recall:{}, F1:{}".format(precision, recall, f1))
fsize = os.path.getsize('test.txt')
fszie = fsize / 1024
time = 2 * toc - tic - tac
speed = fszie / time
# print(fszie)
# print(tac - toc)
# print(toc - tic)
print("用时 %g s" % (time))
print("速度为 %g KB/s" % (speed))
| 29.767241
| 74
| 0.442224
| 380
| 3,453
| 3.986842
| 0.178947
| 0.09901
| 0.034323
| 0.044884
| 0.90033
| 0.90033
| 0.90033
| 0.90033
| 0.90033
| 0.90033
| 0
| 0.015912
| 0.417608
| 3,453
| 115
| 75
| 30.026087
| 0.737444
| 0.150304
| 0
| 0.868421
| 0
| 0
| 0.092965
| 0.029792
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.065789
| 0
| 0.065789
| 0.105263
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
dff7b6497b136ced7711d04edb93b09e7a108ead
| 183
|
py
|
Python
|
tests/metrics/__init__.py
|
christofer-f/pytorch-lightning
|
01f131665aa5a7c86b984ece7214390076fd2a98
|
[
"Apache-2.0"
] | null | null | null |
tests/metrics/__init__.py
|
christofer-f/pytorch-lightning
|
01f131665aa5a7c86b984ece7214390076fd2a98
|
[
"Apache-2.0"
] | null | null | null |
tests/metrics/__init__.py
|
christofer-f/pytorch-lightning
|
01f131665aa5a7c86b984ece7214390076fd2a98
|
[
"Apache-2.0"
] | null | null | null |
import os
from tests.metrics.utils import compute_batch, setup_ddp
from tests.metrics.utils import NUM_BATCHES, NUM_PROCESSES, BATCH_SIZE
from tests.metrics.test_metric import Dummy
| 30.5
| 70
| 0.852459
| 29
| 183
| 5.172414
| 0.586207
| 0.18
| 0.32
| 0.28
| 0.36
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.098361
| 183
| 5
| 71
| 36.6
| 0.909091
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 0
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
260ca1f24558aebeb52721658214f8b435e0a14c
| 91,715
|
py
|
Python
|
app.py
|
dhmodi/medical-affair-assistant
|
e8fe0e3053f8a7fae03b699a7694ba4ca9e8c75d
|
[
"Apache-2.0"
] | null | null | null |
app.py
|
dhmodi/medical-affair-assistant
|
e8fe0e3053f8a7fae03b699a7694ba4ca9e8c75d
|
[
"Apache-2.0"
] | null | null | null |
app.py
|
dhmodi/medical-affair-assistant
|
e8fe0e3053f8a7fae03b699a7694ba4ca9e8c75d
|
[
"Apache-2.0"
] | null | null | null |
#!/usr/bin/env python
from __future__ import print_function
from future.standard_library import install_aliases
import cx_Oracle
install_aliases()
import json
import os
import sys
import pandas as pd
sys.path.append('cognitiveSQL')
from flask import Flask,session
from flask import request
from flask import make_response
from flask import url_for, redirect
from flask_socketio import SocketIO, send, emit
import subprocess
import cognitiveSQL.Database as Database
import cognitiveSQL.LangConfig as LangConfig
import cognitiveSQL.Parser as Parser
import cognitiveSQL.Thesaurus as Thesaurus
import cognitiveSQL.StopwordFilter as StopwordFilter
from cognitiveSQL.HashMap import hashMap_columns
from urllib.parse import urlparse, urlencode
from urllib.request import urlopen, Request
from urllib.error import HTTPError
import datetime
import math
import psycopg2
import apiai
import requests
# Flask app should start in global layout
app = Flask(__name__, static_url_path='')
socketio = SocketIO(app)
app.secret_key = 'my unobvious secret key'
parser = ""
baseUrl = "https://api.dialogflow.com/v1/query?v=20170712"
accessToken = "66ad5ee869a34d3593181c0f9ff0922c"
# @app.route('/')
# def index():
# return redirect(url_for('static_url', filename='index.html'))
def select_inquiry_response(prod_name, columnName,indication):
try:
url = urlparse(
"postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
print(url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
cur = conn.cursor()
sql = "select " + columnName + " from public.inquiry_response where product_name = '%s' and indication = '%s' limit %s" %(prod_name,indication,1)
print(sql)
cur.execute(sql)
row = cur.fetchone()
#print(row[1])
#print("The number of parts: ", cur.rowcount)
cur.close()
return row
except (Exception, psycopg2.DatabaseError) as error:
print(error)
finally:
if conn is not None:
conn.close()
def select_temp_data():
try:
url = urlparse(
"postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
print(url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
cur = conn.cursor()
sql = "select header,header_value from public.mia_temp_param"
print(sql)
cur.execute(sql)
row = cur.fetchall()
#print(row[1])
#print("The number of parts: ", cur.rowcount)
cur.close()
return row
except (Exception, psycopg2.DatabaseError) as error:
print(error)
finally:
if conn is not None:
conn.close()
def truncate_temp_table():
try:
url = urlparse(
"postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
print(url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
cur = conn.cursor()
sql = "DELETE FROM public.mia_temp_param"
print(sql)
cur.execute(sql)
#print(row[1])
print("The number of parts: ", cur.rowcount)
conn.commit()
cur.close()
except (Exception, psycopg2.DatabaseError) as error:
print(error)
finally:
if conn is not None:
conn.close()
def insert_into_temp(header,header_value):
sql = "INSERT INTO public.mia_temp_param (header,header_value) VALUES(%s, %s)";
try:
# read database configuration
# params = config()
# connect to the PostgreSQL database
url = urlparse(
"postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
# print(url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
# create a new cursor
cur = conn.cursor()
# execute the INSERT statement
cur.execute(sql, (header, header_value))
# commit the changes to the database
conn.commit()
# close communication with the database
cur.close()
except (Exception, psycopg2.DatabaseError) as error:
print(error)
finally:
if conn is not None:
conn.close()
def insert_into_temp(list):
sql = "INSERT INTO public.mia_temp_param (header,header_value) VALUES(%s, %s)";
try:
# read database configuration
# params = config()
# connect to the PostgreSQL database
url = urlparse(
"postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
# print(url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
# create a new cursor
cur = conn.cursor()
for x in list:
# execute the INSERT statement
cur.execute(sql, (x[0],x[1]))
# commit the changes to the database
conn.commit()
# close communication with the database
cur.close()
except (Exception, psycopg2.DatabaseError) as error:
print(error)
finally:
if conn is not None:
conn.close()
#Cur.execute("truncate mytable;")
def insert_inquiry_details(division,country,master_prod,inquiry,customer_type,customer_channel,facilitated_unfacilitated,case_create_dt,case_clsd_dt,resp_id,response,user_mail_id,query_category):
sql = "INSERT INTO public.inquiry_data (Division,Country,Master_Prod ,Inquiry,Customer_Type,Customer_channel,Facilitated_Unfacilitated,Case_Create_Date,Case_Closed_Date,Resp_Id,Response,user_mail_id,query_category) VALUES(%s, %s, %s, %s, %s, %s,%s,%s, %s, %s, %s, %s, %s)";
try:
# read database configuration
#params = config()
# connect to the PostgreSQL database
url = urlparse(
"postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
#print(url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
# create a new cursor
cur = conn.cursor()
# execute the INSERT statement
cur.execute(sql,(division,country,master_prod,inquiry,customer_type,customer_channel,facilitated_unfacilitated,case_create_dt,case_clsd_dt,resp_id,response,user_mail_id,query_category))
# commit the changes to the database
conn.commit()
# close communication with the database
cur.close()
except (Exception, psycopg2.DatabaseError) as error:
print(error)
finally:
if conn is not None:
conn.close()
@app.route('/speech')
def speech():
return redirect(url_for('static', filename='speech.html'))
@app.route('/visualization')
def visualization():
return redirect(url_for('static', filename='visualization.html'))
# @app.route('/inventory')
# def inventory():d
# return redirect(url_for('static_url', filename='index.html'))
@app.route('/emailAffair', methods=['POST'])
def emailAffair():
req = request.get_json(silent=True, force=True)
print("Request")
action = ""
speech = ""
productName = ""
print(json.dumps(req, indent=4))
if (req.get("inquiryQuestion") is not None or req.get("inquiryQuestion") != ""):
print(req.get("age"))
if req.get("age") == "":
age = "0"
else:
age = req.get("age")
if (req.get("location") == ""):
location = "India"
else:
location = req.get("location")
if (req.get("profession") == ""):
profession = "Doc"
else:
profession = req.get("profession")
values = json.dumps({
"lang": "en",
"query": req.get("inquiryQuestion")+" "+age+" "+profession+" "+location,
"sessionId": "12345",
"timezone": "America/New_York"
})
headers ={
'Content-Type': 'application/json',
'Authorization': 'Bearer '+accessToken
}
res = json.loads(requests.post(url=baseUrl, data=values,headers=headers).text)
print(res.get("result").get("fulfillment").get("speech"))
action = res.get("result").get("action")
speech = res.get("result").get("fulfillment").get("speech")
productName = res.get("result").get("parameters").get("ProductName")
res = json.dumps({
"category": action,
"response": speech,
"ProductName": productName
}, indent=4)
print(res)
r = make_response(res)
r.headers['Content-Type'] = 'application/json'
return r
@app.route('/medicalAffair', methods=['POST'])
def medicalAffair():
req = request.get_json(silent=True, force=True)
print("Request:")
print(json.dumps(req, indent=4))
res = processRequest(req)
res = json.dumps(res, indent=4)
print(res)
r = make_response(res)
r.headers['Content-Type'] = 'application/json'
return r
def processRequest(req):
try:
is_Alexa_json = False
is_Apiai_json = False
if "request" in req:
is_Alexa_json = True
if "result" in req:
is_Apiai_json = True
global OutMap
global globalList
globalList = []
global response
response =""
global MainQuery
MainQuery = ""
global masterProd
masterProd = ""
global userRegion
userRegion = ""
global productName
productName = ""
global userProfession
userProfession = ""
global fac_unfac
fac_unfac = ""
if is_Apiai_json == True:
if (req.get("result").get("action") == "ProdAppearance" or
req.get("result").get("action") == "ProdAvailability" or
req.get("result").get("action") == "ProdGenericAvailability" or
req.get("result").get("action") == "ProdDescription" or
req.get("result").get("action") == "ProdWork" or
req.get("result").get("action") == "ProdSideEffect" or
req.get("result").get("action") == "ProdDosageReco" or
req.get("result").get("action") == "ProductAvailability-Yes" or
req.get("result").get("action") == "ProductAppearance-Yes" or
req.get("result").get("action") == "ProductGenericAvailability-Yes" or
req.get("result").get("action") == "ProductDescription-Yes" or
req.get("result").get("action") == "ProductWork-Yes" or
req.get("result").get("action") == "ProductSideEffect-Yes" or
req.get("result").get("action") == "ProductDosageReco-Yes" or
req.get("result").get("action") == "ProductAvailability-Email" or
req.get("result").get("action") == "ProductAppearance-Email" or
req.get("result").get("action") == "ProductGenericAvailability-Email" or
req.get("result").get("action") == "ProductDescription-Email" or
req.get("result").get("action") == "ProductWork-Email" or
req.get("result").get("action") == "ProductSideEffect-Email" or
req.get("result").get("action") == "ProductDosageReco-Email" or
req.get("result").get("action") == "ProductAvailability-No" or
req.get("result").get("action") == "ProductAppearance-No" or
req.get("result").get("action") == "ProductGenericAvailability-No" or
req.get("result").get("action") == "ProductDescription-No" or
req.get("result").get("action") == "ProductWork-No" or
req.get("result").get("action") == "ProductSideEffect-No" or
req.get("result").get("action") == "ProductDosageReco-No"):
print(req.get("result").get("action"))
actionIncompleteStatus = req.get("result").get("actionIncomplete")
print(actionIncompleteStatus)
fac_unfac = ""
master_prod = ""
response = ""
status = False
if (actionIncompleteStatus and req.get("result").get("action") != "") and (
req.get("result").get("parameters").get("ProductName") != "") and (
req.get("result").get("parameters").get("UserOccupation") == "") and (
req.get("result").get("parameters").get("UserRegion") == "") and (
req.get("result").get("parameters").get("UserAge") == ""):
truncate_temp_table()
tuple = ('MainQuery', req.get("result").get("resolvedQuery"))
#tup()
globalList.append(tuple)
# session["userRegion"] = ""
# session["productName"] = ""
# session["userProfession"] = ""
# session["response"] = ""
# session["MainQuery"] = req.get("result").get("resolvedQuery")
insert_into_temp(globalList)
#print(session["MainQuery"])
if actionIncompleteStatus:
print("Skipping")
else:
print("Accepted")
if ((req.get("result").get("action") is not None) or (
req.get("result").get("parameters").get("ProductName") is not None) or (
req.get("result").get("parameters").get("UserRegion") is not None) or (
req.get("result").get("UserAge").get("amount") is not None) or (
req.get("result").get("UserAge").get("unit") is not None)):
if (req.get("result").get("action") == "ProdAppearance"):
print("ProdApperance")
Prod_Response = select_inquiry_response(req.get("result").get("parameters").get("ProductName"),
"Apperance", req.get("result").get("parameters").get(
"ProdIndication"))
if Prod_Response != None:
status = True;
tuple = ("masterProd", 'Product Appearance')
globalList.append(tuple)
# insert_into_temp("masterProd", 'Product Availability')
if len(Prod_Response[0]) > 0:
fac_unfac = 'Facilitated'
# session["userRegion"] = req.get("result").get("parameters").get("UserRegion")
# insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion"))
# tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion"))
# globalList.append(tuple)
# session["productName"] = req.get("result").get("parameters").get("ProductName")
# insert_into_temp("productName", req.get("result").get("parameters").get("ProductName"))
tuple = ("productName", req.get("result").get("parameters").get("ProductName"))
globalList.append(tuple)
# session["userProfession"] = req.get("result").get("UserProfession")
# insert_into_temp("userProfession", req.get("result").get("UserProfession"))
# tuple = ("userOccupation", req.get("result").get("UserProfession"))
# globalList.append(tuple)
response = Prod_Response[0] + "Was this information useful?"
# insert_into_temp("response", Prod_Response[0] + "Was this information useful?")
tuple = ("response", Prod_Response[0] + "Was this information useful?")
globalList.append(tuple)
else:
fac_unfac = 'UnFacilitated'
response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID."
# insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
tuple = ("response",
"Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
globalList.append(tuple)
# session["fac_unfac"] = fac_unfac
# insert_into_temp("fac_unfac",fac_unfac)
tuple = ("fac_unfac", fac_unfac)
globalList.append(tuple)
insert_into_temp(globalList)
else:
status = False
fac_unfac = 'Unfacilitated'
elif (req.get("result").get("action") == "ProdAvailability"):
print("ProdAvailability")
Prod_Response = select_inquiry_response(req.get("result").get("parameters").get("ProductName"),
"Availability", req.get("result").get("parameters").get(
"ProdIndication"))
if Prod_Response != None:
status = True;
tuple = ("masterProd", 'Product Availability')
globalList.append(tuple)
#insert_into_temp("masterProd", 'Product Availability')
if len(Prod_Response[0]) > 0:
fac_unfac = 'Facilitated'
#session["userRegion"] = req.get("result").get("parameters").get("UserRegion")
#insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion"))
#tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion"))
#globalList.append(tuple)
#session["productName"] = req.get("result").get("parameters").get("ProductName")
#insert_into_temp("productName", req.get("result").get("parameters").get("ProductName"))
tuple = ("productName", req.get("result").get("parameters").get("ProductName"))
globalList.append(tuple)
#session["userProfession"] = req.get("result").get("UserProfession")
#insert_into_temp("userProfession", req.get("result").get("UserProfession"))
#tuple = ("userOccupation", req.get("result").get("UserProfession"))
#globalList.append(tuple)
response = Prod_Response[0] + "Was this information useful?"
#insert_into_temp("response", Prod_Response[0] + "Was this information useful?")
tuple = ("response", Prod_Response[0] + "Was this information useful?")
globalList.append(tuple)
else:
fac_unfac = 'UnFacilitated'
response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID."
#insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
tuple = ("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
globalList.append(tuple)
#session["fac_unfac"] = fac_unfac
#insert_into_temp("fac_unfac",fac_unfac)
tuple =("fac_unfac", fac_unfac)
globalList.append(tuple)
insert_into_temp(globalList)
else:
status = False;
fac_unfac = 'Unfacilitated'
elif (req.get("result").get("action") == "ProdGenericAvailability"):
print("ProdGenericAvailable")
Prod_Response = select_inquiry_response(req.get("result").get("parameters").get("ProductName"),
"Generic_Availables",
req.get("result").get("parameters").get(
"ProdIndication"))
if Prod_Response != None:
status = True;
tuple = ("masterProd", 'Product Generic Availability')
globalList.append(tuple)
# insert_into_temp("masterProd", 'Product Availability')
if len(Prod_Response[0]) > 0:
fac_unfac = 'Facilitated'
# session["userRegion"] = req.get("result").get("parameters").get("UserRegion")
# insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion"))
# tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion"))
# globalList.append(tuple)
# session["productName"] = req.get("result").get("parameters").get("ProductName")
# insert_into_temp("productName", req.get("result").get("parameters").get("ProductName"))
tuple = ("productName", req.get("result").get("parameters").get("ProductName"))
globalList.append(tuple)
# session["userProfession"] = req.get("result").get("UserProfession")
# insert_into_temp("userProfession", req.get("result").get("UserProfession"))
# tuple = ("userOccupation", req.get("result").get("UserProfession"))
# globalList.append(tuple)
response = Prod_Response[0] + "Was this information useful?"
# insert_into_temp("response", Prod_Response[0] + "Was this information useful?")
tuple = ("response", Prod_Response[0] + "Was this information useful?")
globalList.append(tuple)
else:
fac_unfac = 'UnFacilitated'
response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID."
# insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
tuple = ("response",
"Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
globalList.append(tuple)
# session["fac_unfac"] = fac_unfac
# insert_into_temp("fac_unfac",fac_unfac)
tuple = ("fac_unfac", fac_unfac)
globalList.append(tuple)
insert_into_temp(globalList)
else:
status = False
fac_unfac = 'Unfacilitated'
elif (req.get("result").get("action") == "ProdDescription"):
print("ProdDescription")
Prod_Response = select_inquiry_response(
req.get("result").get("parameters").get("ProductName"),
"description", req.get("result").get("parameters").get("ProdIndication"))
if Prod_Response != None:
status = True;
tuple = ("masterProd", 'Product Descritpion')
globalList.append(tuple)
# insert_into_temp("masterProd", 'Product Availability')
if len(Prod_Response[0]) > 0:
fac_unfac = 'Facilitated'
# session["userRegion"] = req.get("result").get("parameters").get("UserRegion")
# insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion"))
# tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion"))
# globalList.append(tuple)
# session["productName"] = req.get("result").get("parameters").get("ProductName")
# insert_into_temp("productName", req.get("result").get("parameters").get("ProductName"))
tuple = ("productName", req.get("result").get("parameters").get("ProductName"))
globalList.append(tuple)
# session["userProfession"] = req.get("result").get("UserProfession")
# insert_into_temp("userProfession", req.get("result").get("UserProfession"))
# tuple = ("userOccupation", req.get("result").get("UserProfession"))
# globalList.append(tuple)
response = Prod_Response[0] + "Was this information useful?"
# insert_into_temp("response", Prod_Response[0] + "Was this information useful?")
tuple = ("response", Prod_Response[0] + "Was this information useful?")
globalList.append(tuple)
else:
fac_unfac = 'UnFacilitated'
response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID."
# insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
tuple = ("response",
"Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
globalList.append(tuple)
# session["fac_unfac"] = fac_unfac
# insert_into_temp("fac_unfac",fac_unfac)
tuple = ("fac_unfac", fac_unfac)
globalList.append(tuple)
insert_into_temp(globalList)
else:
status = False
fac_unfac = 'Unfacilitated'
# Default else
elif (req.get("result").get("action") == "ProdWork"):
print("ProdWork")
Prod_Response = select_inquiry_response(
req.get("result").get("parameters").get("ProductName"),
"how_does_it_work", req.get("result").get("parameters").get("ProdIndication"))
if Prod_Response != None:
status = True;
tuple = ("masterProd", 'Product How Does It Work')
globalList.append(tuple)
# insert_into_temp("masterProd", 'Product Availability')
if len(Prod_Response[0]) > 0:
fac_unfac = 'Facilitated'
# session["userRegion"] = req.get("result").get("parameters").get("UserRegion")
# insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion"))
# tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion"))
# globalList.append(tuple)
# session["productName"] = req.get("result").get("parameters").get("ProductName")
# insert_into_temp("productName", req.get("result").get("parameters").get("ProductName"))
tuple = ("productName", req.get("result").get("parameters").get("ProductName"))
globalList.append(tuple)
# session["userProfession"] = req.get("result").get("UserProfession")
# insert_into_temp("userProfession", req.get("result").get("UserProfession"))
# tuple = ("userOccupation", req.get("result").get("UserProfession"))
# globalList.append(tuple)
response = Prod_Response[0] + "Was this information useful?"
# insert_into_temp("response", Prod_Response[0] + "Was this information useful?")
tuple = ("response", Prod_Response[0] + "Was this information useful?")
globalList.append(tuple)
else:
fac_unfac = 'UnFacilitated'
response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID."
# insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
tuple = ("response",
"Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
globalList.append(tuple)
# session["fac_unfac"] = fac_unfac
# insert_into_temp("fac_unfac",fac_unfac)
tuple = ("fac_unfac", fac_unfac)
globalList.append(tuple)
insert_into_temp(globalList)
else:
status = False
fac_unfac = 'Unfacilitated'
# Default else
elif (req.get("result").get("action") == "ProdSideEffect"):
print("ProdSideEffect")
Prod_Response = select_inquiry_response(
req.get("result").get("parameters").get("ProductName"),
"sideeffects", req.get("result").get("parameters").get("ProdIndication"))
if Prod_Response != None:
status = True;
tuple = ("masterProd", 'Product Side Effect')
globalList.append(tuple)
# insert_into_temp("masterProd", 'Product Availability')
if len(Prod_Response[0]) > 0:
fac_unfac = 'Facilitated'
# session["userRegion"] = req.get("result").get("parameters").get("UserRegion")
# insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion"))
# tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion"))
# globalList.append(tuple)
# session["productName"] = req.get("result").get("parameters").get("ProductName")
# insert_into_temp("productName", req.get("result").get("parameters").get("ProductName"))
tuple = ("productName", req.get("result").get("parameters").get("ProductName"))
globalList.append(tuple)
# session["userProfession"] = req.get("result").get("UserProfession")
# insert_into_temp("userProfession", req.get("result").get("UserProfession"))
# tuple = ("userOccupation", req.get("result").get("UserProfession"))
# globalList.append(tuple)
response = Prod_Response[0] + "Was this information useful?"
# insert_into_temp("response", Prod_Response[0] + "Was this information useful?")
tuple = ("response", Prod_Response[0] + "Was this information useful?")
globalList.append(tuple)
else:
fac_unfac = 'UnFacilitated'
response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID."
# insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
tuple = ("response",
"Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
globalList.append(tuple)
# session["fac_unfac"] = fac_unfac
# insert_into_temp("fac_unfac",fac_unfac)
tuple = ("fac_unfac", fac_unfac)
globalList.append(tuple)
insert_into_temp(globalList)
else:
status = False
fac_unfac = 'Unfacilitated'
# Default else
elif (req.get("result").get("action") == "ProdDosageReco"):
print("ProdDosageReco")
Prod_Response = select_inquiry_response(
req.get("result").get("parameters").get("ProductName"),
"number_of_times_reco_tot_start_dosage",
req.get("result").get("parameters").get("ProdIndication"))
if Prod_Response != None:
status = True;
tuple = ("masterProd", 'Product Dosage Recommendation')
globalList.append(tuple)
# insert_into_temp("masterProd", 'Product Availability')
if len(Prod_Response[0]) > 0:
fac_unfac = 'Facilitated'
# session["userRegion"] = req.get("result").get("parameters").get("UserRegion")
# insert_into_temp("userRegion", req.get("result").get("parameters").get("UserRegion"))
# tuple = ("userRegion", req.get("result").get("parameters").get("UserRegion"))
# globalList.append(tuple)
# session["productName"] = req.get("result").get("parameters").get("ProductName")
# insert_into_temp("productName", req.get("result").get("parameters").get("ProductName"))
tuple = ("productName", req.get("result").get("parameters").get("ProductName"))
globalList.append(tuple)
# session["userProfession"] = req.get("result").get("UserProfession")
# insert_into_temp("userProfession", req.get("result").get("UserProfession"))
# tuple = ("userOccupation", req.get("result").get("UserProfession"))
# globalList.append(tuple)
response = Prod_Response[0] + "Was this information useful?"
# insert_into_temp("response", Prod_Response[0] + "Was this information useful?")
tuple = ("response", Prod_Response[0] + "Was this information useful?")
globalList.append(tuple)
else:
fac_unfac = 'UnFacilitated'
response = "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID."
# insert_into_temp("response", "Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
tuple = ("response",
"Your query will be sent to the concerned SME Team and they will get in touch with you. Please provide your Mail ID.")
globalList.append(tuple)
# session["fac_unfac"] = fac_unfac
# insert_into_temp("fac_unfac",fac_unfac)
tuple = ("fac_unfac", fac_unfac)
globalList.append(tuple)
insert_into_temp(globalList)
else:
status = False
fac_unfac = 'Unfacilitated'
elif (req.get("result").get("action") == "ProductAvailability-Yes" or
req.get("result").get("action") == "ProductAppearance-Yes" or
req.get("result").get("action") == "ProductGenericAvailability-Yes" or
req.get("result").get("action") == "ProductDescription-Yes" or
req.get("result").get("action") == "ProductWork-Yes" or
req.get("result").get("action") == "ProductSideEffect-Yes" or
req.get("result").get("action") == "ProductDosageReco-Yes"):
row = select_temp_data()
for item in row:
if item[0] == "MainQuery":
MainQuery = item[1]
elif item[0] == "masterProd":
masterProd = item[1]
# elif item[0]=="userRegion":
# userRegion = item[1]
elif item[0] == "productName":
productName = item[1]
# elif item[0]=="userOccupation":
# userProfession = item[1]
elif item[0] == "response":
response = item[1]
elif item[0] == "fac_unfac":
fac_unfac = item[1]
print(item)
insert_inquiry_details('Amer',
userRegion,
productName,
MainQuery,
userProfession,
"agent",
fac_unfac,
datetime.datetime.utcnow(),
datetime.datetime.utcnow(),
0,
response,
req.get("result").get("parameters").get("UserMailId"),
masterProd
)
truncate_temp_table()
return {
"speech": "Thank you for your time. Have a good day",
"displayText": "Thank you for your time. Have a good day",
"source": "agent"
}
elif (req.get("result").get("action") == "ProductAvailability-Email" or
req.get("result").get("action") == "ProductAppearance-Email" or
req.get("result").get("action") == "ProductGenericAvailability-Email" or
req.get("result").get("action") == "ProductDescription-Email" or
req.get("result").get("action") == "ProductWork-Email" or
req.get("result").get("action") == "ProductSideEffect-Email" or
req.get("result").get("action") == "ProductDosageReco-Email" or
req.get("result").get("action") == "ProductAvailability-No" or
req.get("result").get("action") == "ProductAppearance-No" or
req.get("result").get("action") == "ProductGenericAvailability-No" or
req.get("result").get("action") == "ProductDescription-No" or
req.get("result").get("action") == "ProductWork-No" or
req.get("result").get("action") == "ProductSideEffect-No" or
req.get("result").get("action") == "ProductDosageReco-No"):
row = select_temp_data()
for item in row:
if item[0]=="MainQuery":
MainQuery = item[1]
elif item[0]=="masterProd":
masterProd = item[1]
# elif item[0]=="userRegion":
# userRegion = item[1]
elif item[0]=="productName":
productName = item[1]
# elif item[0]=="userOccupation":
# userProfession = item[1]
elif item[0]=="response":
response = item[1]
elif item[0]=="fac_unfac":
fac_unfac = item[1]
print(item)
insert_inquiry_details('Amer',
userRegion,
productName,
MainQuery,
userProfession,
"agent",
"UnFacilitated",
datetime.datetime.utcnow(),
datetime.datetime.utcnow(),
0,
response,
req.get("result").get("parameters").get("UserMailId"),
masterProd
)
truncate_temp_table()
return {
"speech": "Thank you for your time. Have a good day",
"displayText": "Thank you for your time. Have a good day",
"source": "agent"
}
else:
status = False
# final if Statement
if status:
# insert_inquiry_details('Amer',
# req.get("result").get("parameters").get("UserRegion"),
# req.get("result").get("parameters").get("ProductName"),
# master_prod,
# req.get("result").get("UserProfession"),
# req.get("result").get("source"),
# fac_unfac,
# datetime.datetime.utcnow(),
# datetime.datetime.utcnow(),
# 0,
# response
# )
return {
"speech": response,
"displayText": response,
"source": "agent"
}
else:
# insert_inquiry_details('Amer',
# req.get("result").get("parameters").get("UserRegion"),
# req.get("result").get("parameters").get("ProductName"),
# 'Data Not Found',
# req.get("result").get("UserProfession"),
# req.get("result").get("source"),
# 'Unfacilitated',
# datetime.datetime.utcnow(),
# datetime.datetime.utcnow(),
# 0,
# "Details not found"
# )
return {
"speech": "Details Not found",
"displayText": "Details Not found",
"source": req.get("result").get("source")
}
elif (req.get("result").get("action") == "medical.search"):
url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
print (url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
print("Medical Search")
incoming_query = req.get("result").get("resolvedQuery")
hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv'
OutMap = {}
(input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap)
print(input_sentence)
print(OutMap)
# print(query for query in queries)
queries = parser.parse_sentence(input_sentence)
queryString = ""
table = ""
for query in queries:
table = query.get_from().get_table()
columns = query.get_select().get_columns()
conditions = query.get_where().get_conditions()
queryString = queryString + str(query)
print("table:")
print(table)
# print(list(columns))
print(columns)
print(columns[0])
# print(columns[1])
# xAxis = columns[0][0].split('.')[1]
# yAxis = columns[1][0].split('.')[1]
print(queryString)
cur = conn.cursor()
cur.execute(queryString)
rows = cur.fetchall()
cur.close()
conn.close()
# outText = ', '.join(str(x) for x in rows[0])
# outText = ', '.join(str(element).split(".")[0] for row in rows for element in row)
count = 0
if len(conditions) != 0:
whereColumn = []
whereValue = []
for i in range(0, len(conditions)):
print(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')'))
print(conditions[i][1].get_value().strip("'"))
whereColumn.append(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')'))
if " MAX" not in conditions[i][1].get_value() and " MIN" not in conditions[i][1].get_value():
whereValue.append(conditions[i][1].get_value().strip("'"))
else:
if " MAX" in conditions[i][1].get_value():
whereValue.append("max")
else:
whereValue.append("min")
outText = "The "
# if len(rows)==1:
print("length of rows")
print(len(rows))
print(rows)
if len(rows) == 1:
for row in rows:
print(count)
isLast = len(row)
for element in row:
isLast = isLast - 1
value = str(element).split(".")[0]
if (columns[count][0] is not None):
# print(columns)
column = columns[count][0].split('.')[1]
print(column)
operation = columns[count][1]
if (operation is None):
print("The Operation is None")
column = OutMap.get(column)
whereValue1 = OutMap.get(whereValue[0]) if (OutMap.get(whereValue[0])) else whereValue[0]
whereColumn1 = OutMap.get(whereColumn[0]) if (OutMap.get(whereColumn[0])) else whereColumn[
0]
try:
print(whereValue[1])
print(whereColumn[1])
whereValue2 = OutMap.get(whereValue[1]) if (OutMap.get(whereValue[1])) else whereValue[
1]
whereColumn2 = OutMap.get(whereColumn[1]) if (OutMap.get(whereColumn[1])) else \
whereColumn[1]
if 'whereColumn' in locals():
# outText = str(column) + " " + value + " in the " + str(whereColumn1) + " " + str(
# whereValue1) + " has " + str(whereValue2) + " " + str(whereColumn2)
outText = "The " + str(column) + " for " + str(whereColumn1) + " " + str(
whereValue1) + " in " + str(whereColumn2) + " is " + value + "%"
else:
outText = outText + str(column) + " is " + value
except IndexError:
if 'whereColumn' in locals():
outText = str(column) + " " + value + " has " + str(whereValue1) + " " + str(
whereColumn1)
else:
outText = outText + str(column) + " is " + value
elif (operation is "COUNT"):
table = OutMap.get(table)
print("The Operation is " + str(operation))
if 'whereColumn' in locals():
outText = "There are " + value + " " + str(table) + " with " + str(
whereValue[0]) + " " + str(whereColumn[0])
else:
outText = "There are " + value + " " + str(table)
else:
# operation = OutMap.get(str(operation).lower())
column = OutMap.get(column)
# whereValue = OutMap.get(whereValue)
print("The Operation is " + str(operation))
if 'whereColumn' in locals():
outText = "There are " + value + " " + str(column) + " in " + str(
whereValue[0]) + " for " + str(whereValue[1]) + " " + str(whereColumn[1])
else:
if "what" in incoming_query:
outText = "The " + OutMap.get(str(operation).lower()).lower() + " " + str(
column) + " is " + value
elif "how" in incoming_query:
outText = "There are " + value + " " + str(column)
if (isLast is not 0):
outText = outText + " and the "
count = count + 1
else:
print(whereColumn)
print(whereValue)
print(table)
print(columns[1][0])
column = columns[0][0].split('.')[1]
column2 = columns[1][0].split('.')[1]
sent_label = OutMap[column]
sent_value = OutMap[column2]
print(sent_label)
outText = whereColumn[0] + " " + OutMap[whereValue[0]] + " has the following " + sent_label + ": "
print(rows)
print(columns)
print(len(columns))
no_of_rows = len(rows)
counter = no_of_rows
for row in rows:
counter = counter - 1
label = row[0]
value = row[1]
if counter != 0:
outText = outText + str(column) + " " + str(label) + " has " + str(column2) + " of " + str(
value) + ", "
else:
outText = outText + "whereas " + str(column) + " " + str(label) + " has " + str(
column2) + " of " + str(value)
# outText = "The"
print(outText)
return {
"speech": outText,
"displayText": outText,
# "data": data,
# "contextOut": [],
"source": "Dhaval"
}
elif (req.get("result").get("action") == "medical.visualization"):
url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
print (url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
print("Medical Visualization")
# chartType = "line"
incoming_query = req.get("result").get("resolvedQuery")
print(incoming_query)
chartType = req.get("result").get("parameters").get("chart-type")
# if (chartType == "bar"):
# chartType = "bar"
# else:
# chartType = "line"
hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv'
OutMap = {}
(input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap)
print(OutMap)
print(input_sentence)
queries = parser.parse_sentence(input_sentence)
# queries = parser.parse_sentence(incoming_query)
# print(query for query in queries)
queryString = ""
table = ""
for query in queries:
table = query.get_from().get_table()
columns = query.get_select().get_columns()
conditions = query.get_where().get_conditions()
queryString = queryString + str(query)
# chartType = req.get("result").get("parameters").get("chart-type")
# print(chartType)
print(queryString)
cur = conn.cursor()
cur.execute(queryString)
rows = cur.fetchall()
cur.close()
conn.close()
print(rows)
print(list(columns))
print(len(columns))
# error handling
if len(columns) <= 1:
outText="Please rephrase the question"
return {
"speech": outText,
"displayText": outText,
# "data": data,
# "contextOut": [],
"source": "Dhaval"
}
elif (len(columns) > 1 & len(columns) <= 2):
xAxis = columns[0][0].split('.')[1]
yAxis = columns[1][0].split('.')[1]
xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis
yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis
print(xAxis)
print(yAxis)
print(chartType)
df = pd.DataFrame(list(rows), columns=["label", "value"])
df['value'] = df['value'].fillna(0)
agg_df = df.groupby(['label'], as_index=False).agg({"value": "sum"})
maxRecord = agg_df.ix[agg_df['value'].idxmax()].to_frame().T
maxValue = agg_df['value'].max()
print(maxRecord)
print(maxValue)
agg_df = agg_df.reset_index()
minRecord = agg_df.ix[agg_df['value'].idxmin()].to_frame().T
minValue = agg_df['value'].min()
print(minRecord)
print(minValue)
agg_df['label'] = agg_df['label'].astype('str')
agg_df['value'] = agg_df['value'].astype('str')
agg_df.drop(columns=['index'], inplace=True)
agg_df.reset_index(drop=True, inplace=True)
print("agg_df:")
print(agg_df)
if chartType == 'geochart':
for id, cn in enumerate(agg_df['label']):
if cn == 'UK':
agg_df['label'][id] = 'GB'
chartData = agg_df.to_json(orient='records')
# chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows]
print("agg_df:")
print(agg_df)
print("chartData:")
print(chartData)
# chartData = json.dumps(chartData)
# final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]'
final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]'
print(final_json)
socketio.emit('chartgoogledata', final_json)
outText = "The " + xAxis + " " + str(
maxRecord['label'].values[0]) + " has maximum " + yAxis + " of " + str(
maxValue) + " while the " + xAxis + " " + str(
minRecord['label'].values[0]) + " has minimum " + yAxis + " of " + str(
minValue) + ". Refer to the screen for more details."
# outText = "Refer to the screen for more details."
print(outText)
return {
"speech": outText,
"displayText": outText,
# "data": data,
# "contextOut": [],
"source": "Dhaval"
}
else:
xAxis = columns[1][0].split('.')[1]
yAxis = columns[2][0].split('.')[1]
zAxis = columns[0][0].split('.')[1]
xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis
yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis
zAxis = OutMap.get(zAxis) if OutMap.get(zAxis) else zAxis
print(xAxis)
print(yAxis)
print(zAxis)
print(chartType)
df = pd.DataFrame(list(rows), columns=["datatype", "country", "dq_score"])
df['dq_score'] = df['dq_score'].fillna(0)
# print(df)
agg_df = df.groupby(['datatype', 'country'], as_index=False)['dq_score'].sum()
print(agg_df)
maxRecord = agg_df.ix[agg_df['dq_score'].idxmax()].to_frame().T
agg_df = agg_df.reset_index()
minRecord = agg_df.ix[agg_df['dq_score'].idxmin()].to_frame().T
print(maxRecord)
print(minRecord)
agg_df['datatype'] = agg_df['datatype'].astype('str')
agg_df['country'] = agg_df['country'].astype('str')
agg_df.drop(columns=['index'], inplace=True)
# agg_df.reset_index(drop=True, inplace=True)
print("agg_df:")
print(agg_df)
pd.options.mode.chained_assignment = None
for i in range(len(agg_df['datatype'])):
agg_df['datatype'][i] = agg_df['datatype'][i].replace(" ", "_")
print(agg_df)
unique_countries = set(agg_df['country'])
unique_countries = list(unique_countries)
unique_datatypes = set(agg_df['datatype'])
unique_datatypes = list(unique_datatypes)
df = agg_df
df2 = pd.DataFrame(columns=['country', 'values'])
df2['country'] = ['' for i in range(len(unique_countries))]
for idx, cn in enumerate(unique_countries):
df2['country'][idx] = cn
df2['values'][idx] = {}
for ind, val in enumerate(df2['values']):
for idx, dtyp in enumerate(unique_datatypes):
df2['values'][ind][dtyp] = 0
for ind, cn in enumerate(df['country']):
for i, c in enumerate(df2['country']):
dat = df['datatype'][ind]
dqs = df['dq_score'][ind]
if cn == c:
df2['values'][i][dat] = dqs
print(df2)
agg_df = df2
chartData = agg_df.to_json(orient='records')
# chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows]
print("agg_df:")
print(agg_df)
print("chartData:")
print(chartData)
# chartData = json.dumps(chartData)
# final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]'
final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]'
print(final_json)
socketio.emit('chartgoogledata', final_json)
# outText = "The " + xAxis + " " + str(
# maxRecord['label'].values[0]) + " has maximum " + yAxis + " while the " + xAxis + " " + str(
# minRecord['label'].values[0]) + " has minimum " + yAxis + ". Refer to the screen for more details."
outText = "Refer to the screen for more details."
print(outText)
return {
"speech": outText,
"displayText": outText,
# "data": data,
# "contextOut": [],
"source": "Dhaval"
}
elif is_Alexa_json == True:
if (req.get("request").get("intent").get("name") == "medicalsearch"):
url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
print (url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
print("Medical Search")
incoming_query = req.get("request").get("intent").get("slots").get("message").get("value")
hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv'
# global OutMap
OutMap = {}
(input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap)
print(input_sentence)
print(OutMap)
# print(query for query in queries)
queries = parser.parse_sentence(input_sentence)
queryString = ""
table = ""
for query in queries:
table = query.get_from().get_table()
columns = query.get_select().get_columns()
conditions = query.get_where().get_conditions()
queryString = queryString + str(query)
print("table:")
print(table)
# print(list(columns))
print(columns)
print(columns[0])
# print(columns[1])
# xAxis = columns[0][0].split('.')[1]
# yAxis = columns[1][0].split('.')[1]
print(queryString)
cur = conn.cursor()
cur.execute(queryString)
rows = cur.fetchall()
cur.close()
conn.close()
# outText = ', '.join(str(x) for x in rows[0])
# outText = ', '.join(str(element).split(".")[0] for row in rows for element in row)
count = 0
if len(conditions) != 0:
whereColumn = []
whereValue = []
for i in range(0, len(conditions)):
print(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')'))
print(conditions[i][1].get_value().strip("'"))
whereColumn.append(conditions[i][1].get_column().rsplit('.', 1)[1].rstrip(')'))
if " MAX" not in conditions[i][1].get_value() and " MIN" not in conditions[i][1].get_value():
whereValue.append(conditions[i][1].get_value().strip("'"))
else:
if " MAX" in conditions[i][1].get_value():
whereValue.append("max")
else:
whereValue.append("min")
outText = "The "
# if len(rows)==1:
print("length of rows")
print(len(rows))
print(rows)
if len(rows) == 1:
for row in rows:
print(count)
isLast = len(row)
for element in row:
isLast = isLast - 1
value = str(element).split(".")[0]
if (columns[count][0] is not None):
# print(columns)
column = columns[count][0].split('.')[1]
print(column)
operation = columns[count][1]
if (operation is None):
print("The Operation is None")
column = OutMap.get(column)
whereValue1 = OutMap.get(whereValue[0]) if (OutMap.get(whereValue[0])) else whereValue[0]
whereColumn1 = OutMap.get(whereColumn[0]) if (OutMap.get(whereColumn[0])) else whereColumn[
0]
try:
print(whereValue[1])
print(whereColumn[1])
whereValue2 = OutMap.get(whereValue[1]) if (OutMap.get(whereValue[1])) else whereValue[
1]
whereColumn2 = OutMap.get(whereColumn[1]) if (OutMap.get(whereColumn[1])) else \
whereColumn[1]
if 'whereColumn' in locals():
# outText = str(column) + " " + value + " in the " + str(whereColumn1) + " " + str(
# whereValue1) + " has " + str(whereValue2) + " " + str(whereColumn2)
outText = "The " + str(column) + " for " + str(whereColumn1) + " " + str(
whereValue1) + " in " + str(whereColumn2) + " is " + value + "%"
else:
outText = outText + str(column) + " is " + value
except IndexError:
if 'whereColumn' in locals():
outText = str(column) + " " + value + " has " + str(whereValue1) + " " + str(
whereColumn1)
else:
outText = outText + str(column) + " is " + value
elif (operation is "COUNT"):
table = OutMap.get(table)
print("The Operation is " + str(operation))
if 'whereColumn' in locals():
outText = "There are " + value + " " + str(table) + " with " + str(
whereValue[0]) + " " + str(whereColumn[0])
else:
outText = "There are " + value + " " + str(table)
else:
# operation = OutMap.get(str(operation).lower())
column = OutMap.get(column)
# whereValue = OutMap.get(whereValue)
print("The Operation is " + str(operation))
if 'whereColumn' in locals():
outText = "There are " + value + " " + str(column) + " in " + str(
whereValue[0]) + " for " + str(whereValue[1]) + " " + str(whereColumn[1])
else:
if "what" in incoming_query:
outText = "The " + OutMap.get(str(operation).lower()).lower() + " " + str(
column) + " is " + value
elif "how" in incoming_query:
outText = "There are " + value + " " + str(column)
if (isLast is not 0):
outText = outText + " and the "
count = count + 1
else:
print(whereColumn)
print(whereValue)
print(table)
print(columns[1][0])
column = columns[0][0].split('.')[1]
column2 = columns[1][0].split('.')[1]
sent_label = OutMap[column]
sent_value = OutMap[column2]
print(sent_label)
outText = whereColumn[0] + " " + OutMap[whereValue[0]] + " has the following " + sent_label + ": "
print(rows)
print(columns)
print(len(columns))
no_of_rows = len(rows)
counter = no_of_rows
for row in rows:
counter = counter - 1
label = row[0]
value = row[1]
if counter != 0:
outText = outText + str(column) + " " + str(label) + " has " + str(column2) + " of " + str(
value) + ", "
else:
outText = outText + "whereas " + str(column) + " " + str(label) + " has " + str(
column2) + " of " + str(value)
# outText = "The"
print(outText)
with open("response/alexa_response.json", 'r') as f:
alexaResponse = json.load(f)
alexaResponse["response"]["outputSpeech"]["text"] = outText
return alexaResponse
elif (req.get("request").get("intent").get("name") == "medicalvisualization"):
url = urlparse("postgres://caedtehsggslri:4679ba0abec57484a1d7ed261b74e80b08391993433c77c838c58415087a9c34@ec2-107-20-255-96.compute-1.amazonaws.com:5432/d5tmi1ihm5f6hv")
print (url.path[1:])
conn = psycopg2.connect(
database=url.path[1:],
user=url.username,
password=url.password,
host=url.hostname,
port=url.port
)
print("Medical Visualization")
# chartType = "line"
incoming_query = req.get("request").get("intent").get("slots").get("message").get("value")
print(incoming_query)
chartType = req.get("request").get("intent").get("slots").get("charttypeslot").get("value")
# if (chartType == "bar"):
# chartType = "bar"
# else:
# chartType = "line"
hashColumn_csv = 'cognitiveSQL/alias/synonyms.csv'
OutMap = {}
(input_sentence, OutMap) = hashMap_columns(str(incoming_query).lower(), hashColumn_csv, OutMap)
print(OutMap)
print(input_sentence)
queries = parser.parse_sentence(input_sentence)
# queries = parser.parse_sentence(incoming_query)
# print(query for query in queries)
queryString = ""
table = ""
for query in queries:
table = query.get_from().get_table()
columns = query.get_select().get_columns()
conditions = query.get_where().get_conditions()
queryString = queryString + str(query)
# chartType = req.get("result").get("parameters").get("chart-type")
# print(chartType)
print(queryString)
cur = conn.cursor()
cur.execute(queryString)
rows = cur.fetchall()
cur.close()
conn.close()
print(rows)
print(list(columns))
if len(columns) <= 2:
xAxis = columns[0][0].split('.')[1]
yAxis = columns[1][0].split('.')[1]
xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis
yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis
print(xAxis)
print(yAxis)
print(chartType)
df = pd.DataFrame(list(rows), columns=["label", "value"])
df['value'] = df['value'].fillna(0)
agg_df = df.groupby(['label'], as_index=False).agg({"value": "sum"})
maxRecord = agg_df.ix[agg_df['value'].idxmax()].to_frame().T
maxValue = agg_df['value'].max()
print(maxRecord)
print(maxValue)
agg_df = agg_df.reset_index()
minRecord = agg_df.ix[agg_df['value'].idxmin()].to_frame().T
minValue = agg_df['value'].min()
print(minRecord)
print(minValue)
agg_df['label'] = agg_df['label'].astype('str')
agg_df['value'] = agg_df['value'].astype('str')
agg_df.drop(columns=['index'], inplace=True)
agg_df.reset_index(drop=True, inplace=True)
print("agg_df:")
print(agg_df)
if (chartType == 'geochart' or chartType == 'geo chart' or chartType == 'joe chart'):
for id, cn in enumerate(agg_df['label']):
if cn == 'UK':
agg_df['label'][id] = 'GB'
chartData = agg_df.to_json(orient='records')
# chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows]
print("agg_df:")
print(agg_df)
print("chartData:")
print(chartData)
# chartData = json.dumps(chartData)
# final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]'
final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]'
print(final_json)
socketio.emit('chartgoogledata', final_json)
outText = "The " + xAxis + " " + str(
maxRecord['label'].values[0]) + " has maximum " + yAxis + " of " + str(
maxValue) + " while the " + xAxis + " " + str(
minRecord['label'].values[0]) + " has minimum " + yAxis + " of " + str(
minValue) + ". Refer to the screen for more details."
# outText = "Refer to the screen for more details."
print(outText)
with open("response/alexa_response.json", 'r') as f:
alexaResponse = json.load(f)
alexaResponse["response"]["outputSpeech"]["text"] = outText
return alexaResponse
else:
xAxis = columns[1][0].split('.')[1]
yAxis = columns[2][0].split('.')[1]
zAxis = columns[0][0].split('.')[1]
xAxis = OutMap.get(xAxis) if OutMap.get(xAxis) else xAxis
yAxis = OutMap.get(yAxis) if OutMap.get(yAxis) else yAxis
zAxis = OutMap.get(zAxis) if OutMap.get(zAxis) else zAxis
print(xAxis)
print(yAxis)
print(zAxis)
print(chartType)
df = pd.DataFrame(list(rows), columns=["datatype", "country", "dq_score"])
df['dq_score'] = df['dq_score'].fillna(0)
# print(df)
agg_df = df.groupby(['datatype', 'country'], as_index=False)['dq_score'].sum()
print(agg_df)
maxRecord = agg_df.ix[agg_df['dq_score'].idxmax()].to_frame().T
agg_df = agg_df.reset_index()
minRecord = agg_df.ix[agg_df['dq_score'].idxmin()].to_frame().T
print(maxRecord)
print(minRecord)
agg_df['datatype'] = agg_df['datatype'].astype('str')
agg_df['country'] = agg_df['country'].astype('str')
agg_df.drop(columns=['index'], inplace=True)
# agg_df.reset_index(drop=True, inplace=True)
print("agg_df:")
print(agg_df)
pd.options.mode.chained_assignment = None
for i in range(len(agg_df['datatype'])):
agg_df['datatype'][i] = agg_df['datatype'][i].replace(" ", "_")
print(agg_df)
unique_countries = set(agg_df['country'])
unique_countries = list(unique_countries)
unique_datatypes = set(agg_df['datatype'])
unique_datatypes = list(unique_datatypes)
df = agg_df
df2 = pd.DataFrame(columns=['country', 'values'])
df2['country'] = ['' for i in range(len(unique_countries))]
for idx, cn in enumerate(unique_countries):
df2['country'][idx] = cn
df2['values'][idx] = {}
for ind, val in enumerate(df2['values']):
for idx, dtyp in enumerate(unique_datatypes):
df2['values'][ind][dtyp] = 0
for ind, cn in enumerate(df['country']):
for i, c in enumerate(df2['country']):
dat = df['datatype'][ind]
dqs = df['dq_score'][ind]
if cn == c:
df2['values'][i][dat] = dqs
print(df2)
agg_df = df2
chartData = agg_df.to_json(orient='records')
# chartData = [{"label": str(row[0]), "value": str(row[1])} for row in rows]
print("agg_df:")
print(agg_df)
print("chartData:")
print(chartData)
# chartData = json.dumps(chartData)
# final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"xAxis", "yAxisName":"yAxis","source":[ { "label": "Mon", "value": "15123" }, { "label": "Tue", "value": "14233" }, { "label": "Wed", "value": "23507" }, { "label": "Thu", "value": "9110" }, { "label": "Fri", "value": "15529" }, { "label": "Sat", "value": "20803" }, { "label": "Sun", "value": "19202" } ]}]'
final_json = '[ { "type":"' + chartType + '", "chartcontainer":"barchart", "caption":"A ' + chartType + ' chart showing ' + xAxis + ' vs ' + yAxis + '", "subCaption":"", "xAxisName":"' + xAxis + '", "yAxisName":"' + yAxis + '", "source":' + chartData + '}]'
print(final_json)
socketio.emit('chartgoogledata', final_json)
# outText = "The " + xAxis + " " + str(
# maxRecord['label'].values[0]) + " has maximum " + yAxis + " while the " + xAxis + " " + str(
# minRecord['label'].values[0]) + " has minimum " + yAxis + ". Refer to the screen for more details."
outText = "Refer to the screen for more details."
print(outText)
with open("response/alexa_response.json", 'r') as f:
alexaResponse = json.load(f)
alexaResponse["response"]["outputSpeech"]["text"] = outText
return alexaResponse
except Exception as ex:
print(str(ex))
if __name__ == '__main__':
database = Database.Database()
database.load("cognitiveSQL/database/HCM.sql")
database.print_me()
config = LangConfig.LangConfig()
config.load("cognitiveSQL/lang/english.csv")
parser = Parser.Parser(database, config)
from os import sys, path
sys.path.append(path.dirname(path.dirname(path.abspath(__file__))))
port = int(os.getenv('PORT', 5001))
print("Starting app on port %d" % port)
#app.run(debug=True, port=port, host='0.0.0.0')
socketio.run(app, debug=True, port=port, host='0.0.0.0')
| 56.232373
| 510
| 0.442948
| 7,682
| 91,715
| 5.200989
| 0.063916
| 0.027031
| 0.050758
| 0.061946
| 0.902863
| 0.899334
| 0.881839
| 0.868048
| 0.864519
| 0.860965
| 0
| 0.023357
| 0.438881
| 91,715
| 1,630
| 511
| 56.266871
| 0.753007
| 0.161686
| 0
| 0.803615
| 0
| 0.020542
| 0.158499
| 0.04016
| 0
| 0
| 0
| 0
| 0
| 1
| 0.009039
| false
| 0.008217
| 0.023007
| 0.001643
| 0.046015
| 0.147083
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
26253ef2c14a27576629d61f62c4b678159d373d
| 113
|
py
|
Python
|
reptile/models/__init__.py
|
kartoza/kbims-reptile
|
4273857d7a2b8f373622f8e06149581bd43703c5
|
[
"MIT"
] | null | null | null |
reptile/models/__init__.py
|
kartoza/kbims-reptile
|
4273857d7a2b8f373622f8e06149581bd43703c5
|
[
"MIT"
] | null | null | null |
reptile/models/__init__.py
|
kartoza/kbims-reptile
|
4273857d7a2b8f373622f8e06149581bd43703c5
|
[
"MIT"
] | null | null | null |
from reptile.models.reptile_collection_record import * # noqa
from reptile.models.csv_document import * # noqa
| 37.666667
| 62
| 0.80531
| 15
| 113
| 5.866667
| 0.6
| 0.25
| 0.386364
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.123894
| 113
| 2
| 63
| 56.5
| 0.888889
| 0.079646
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
2691cb48325c0dab0b178d9d535c1c07fa1258c3
| 68,625
|
py
|
Python
|
benchmarks/SimResults/combinations_spec_ml_deepnet/cmp_calculixlibquantumzeusmpsjeng/power.py
|
TugberkArkose/MLScheduler
|
e493b6cbf7b9d29a2c9300d7dd6f0c2f102e4061
|
[
"Unlicense"
] | null | null | null |
benchmarks/SimResults/combinations_spec_ml_deepnet/cmp_calculixlibquantumzeusmpsjeng/power.py
|
TugberkArkose/MLScheduler
|
e493b6cbf7b9d29a2c9300d7dd6f0c2f102e4061
|
[
"Unlicense"
] | null | null | null |
benchmarks/SimResults/combinations_spec_ml_deepnet/cmp_calculixlibquantumzeusmpsjeng/power.py
|
TugberkArkose/MLScheduler
|
e493b6cbf7b9d29a2c9300d7dd6f0c2f102e4061
|
[
"Unlicense"
] | null | null | null |
power = {'BUSES': {'Area': 1.33155,
'Bus/Area': 1.33155,
'Bus/Gate Leakage': 0.00662954,
'Bus/Peak Dynamic': 0.0,
'Bus/Runtime Dynamic': 0.0,
'Bus/Subthreshold Leakage': 0.0691322,
'Bus/Subthreshold Leakage with power gating': 0.0259246,
'Gate Leakage': 0.00662954,
'Peak Dynamic': 0.0,
'Runtime Dynamic': 0.0,
'Subthreshold Leakage': 0.0691322,
'Subthreshold Leakage with power gating': 0.0259246},
'Core': [{'Area': 32.6082,
'Execution Unit/Area': 8.2042,
'Execution Unit/Complex ALUs/Area': 0.235435,
'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646,
'Execution Unit/Complex ALUs/Peak Dynamic': 0.385175,
'Execution Unit/Complex ALUs/Runtime Dynamic': 0.505222,
'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111,
'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163,
'Execution Unit/Floating Point Units/Area': 4.6585,
'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156,
'Execution Unit/Floating Point Units/Peak Dynamic': 2.03157,
'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033,
'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829,
'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061,
'Execution Unit/Gate Leakage': 0.122718,
'Execution Unit/Instruction Scheduler/Area': 2.17927,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.328073,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.00115349,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.20978,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.716942,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.017004,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00962066,
'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00730101,
'Execution Unit/Instruction Scheduler/Instruction Window/Area': 1.00996,
'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00529112,
'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 2.07911,
'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 1.24148,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0800117,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0455351,
'Execution Unit/Instruction Scheduler/Peak Dynamic': 4.84781,
'Execution Unit/Instruction Scheduler/ROB/Area': 0.841232,
'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.000856399,
'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.55892,
'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.712026,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.0178624,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00897339,
'Execution Unit/Instruction Scheduler/Runtime Dynamic': 2.67045,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.114878,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.0641291,
'Execution Unit/Integer ALUs/Area': 0.47087,
'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291,
'Execution Unit/Integer ALUs/Peak Dynamic': 0.397199,
'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344,
'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222,
'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833,
'Execution Unit/Peak Dynamic': 9.34665,
'Execution Unit/Register Files/Area': 0.570804,
'Execution Unit/Register Files/Floating Point RF/Area': 0.208131,
'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788,
'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.383807,
'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.0259897,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968,
'Execution Unit/Register Files/Gate Leakage': 0.000622708,
'Execution Unit/Register Files/Integer RF/Area': 0.362673,
'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992,
'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.334113,
'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.19221,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675,
'Execution Unit/Register Files/Peak Dynamic': 0.71792,
'Execution Unit/Register Files/Runtime Dynamic': 0.2182,
'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387,
'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643,
'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0442632,
'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00607074,
'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.912877,
'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 1.85311,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.0920413,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0345155,
'Execution Unit/Runtime Dynamic': 5.65236,
'Execution Unit/Subthreshold Leakage': 1.83518,
'Execution Unit/Subthreshold Leakage with power gating': 0.709678,
'Gate Leakage': 0.372997,
'Instruction Fetch Unit/Area': 5.86007,
'Instruction Fetch Unit/Branch Predictor/Area': 0.138516,
'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.0013933,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.0013933,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.00120667,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000463354,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045,
'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838,
'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732,
'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05,
'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602,
'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.00276111,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733,
'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00675438,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282,
'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954,
'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758,
'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867,
'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.013605,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357,
'Instruction Fetch Unit/Gate Leakage': 0.0590479,
'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323,
'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05,
'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827,
'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.184776,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682,
'Instruction Fetch Unit/Instruction Cache/Area': 3.14635,
'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931,
'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 6.43323,
'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.432272,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386,
'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799,
'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493,
'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404,
'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.627583,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104,
'Instruction Fetch Unit/Peak Dynamic': 8.96874,
'Instruction Fetch Unit/Runtime Dynamic': 1.26499,
'Instruction Fetch Unit/Subthreshold Leakage': 0.932587,
'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.408542,
'L2/Area': 4.53318,
'L2/Gate Leakage': 0.015464,
'L2/Peak Dynamic': 0.177133,
'L2/Runtime Dynamic': 0.0302027,
'L2/Subthreshold Leakage': 0.834142,
'L2/Subthreshold Leakage with power gating': 0.401066,
'Load Store Unit/Area': 8.80969,
'Load Store Unit/Data Cache/Area': 6.84535,
'Load Store Unit/Data Cache/Gate Leakage': 0.0279261,
'Load Store Unit/Data Cache/Peak Dynamic': 4.66179,
'Load Store Unit/Data Cache/Runtime Dynamic': 1.71348,
'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675,
'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085,
'Load Store Unit/Gate Leakage': 0.0351387,
'Load Store Unit/LoadQ/Area': 0.0836782,
'Load Store Unit/LoadQ/Gate Leakage': 0.00059896,
'Load Store Unit/LoadQ/Peak Dynamic': 0.110796,
'Load Store Unit/LoadQ/Runtime Dynamic': 0.110796,
'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961,
'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918,
'Load Store Unit/Peak Dynamic': 5.18713,
'Load Store Unit/Runtime Dynamic': 2.37068,
'Load Store Unit/StoreQ/Area': 0.322079,
'Load Store Unit/StoreQ/Gate Leakage': 0.00329971,
'Load Store Unit/StoreQ/Peak Dynamic': 0.273205,
'Load Store Unit/StoreQ/Runtime Dynamic': 0.54641,
'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621,
'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004,
'Load Store Unit/Subthreshold Leakage': 0.591622,
'Load Store Unit/Subthreshold Leakage with power gating': 0.283406,
'Memory Management Unit/Area': 0.434579,
'Memory Management Unit/Dtlb/Area': 0.0879726,
'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729,
'Memory Management Unit/Dtlb/Peak Dynamic': 0.0969613,
'Memory Management Unit/Dtlb/Runtime Dynamic': 0.0996073,
'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699,
'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485,
'Memory Management Unit/Gate Leakage': 0.00813591,
'Memory Management Unit/Itlb/Area': 0.301552,
'Memory Management Unit/Itlb/Gate Leakage': 0.00393464,
'Memory Management Unit/Itlb/Peak Dynamic': 0.399995,
'Memory Management Unit/Itlb/Runtime Dynamic': 0.0709071,
'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758,
'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842,
'Memory Management Unit/Peak Dynamic': 0.726121,
'Memory Management Unit/Runtime Dynamic': 0.170514,
'Memory Management Unit/Subthreshold Leakage': 0.0769113,
'Memory Management Unit/Subthreshold Leakage with power gating': 0.0399462,
'Peak Dynamic': 28.9675,
'Renaming Unit/Area': 0.369768,
'Renaming Unit/FP Front End RAT/Area': 0.168486,
'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00489731,
'Renaming Unit/FP Front End RAT/Peak Dynamic': 3.33511,
'Renaming Unit/FP Front End RAT/Runtime Dynamic': 1.33902,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0437281,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.024925,
'Renaming Unit/Free List/Area': 0.0414755,
'Renaming Unit/Free List/Gate Leakage': 4.15911e-05,
'Renaming Unit/Free List/Peak Dynamic': 0.0401324,
'Renaming Unit/Free List/Runtime Dynamic': 0.0527732,
'Renaming Unit/Free List/Subthreshold Leakage': 0.000670426,
'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000377987,
'Renaming Unit/Gate Leakage': 0.00863632,
'Renaming Unit/Int Front End RAT/Area': 0.114751,
'Renaming Unit/Int Front End RAT/Gate Leakage': 0.00038343,
'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.86945,
'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.343987,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00611897,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00348781,
'Renaming Unit/Peak Dynamic': 4.56169,
'Renaming Unit/Runtime Dynamic': 1.73578,
'Renaming Unit/Subthreshold Leakage': 0.070483,
'Renaming Unit/Subthreshold Leakage with power gating': 0.0362779,
'Runtime Dynamic': 11.2245,
'Subthreshold Leakage': 6.21877,
'Subthreshold Leakage with power gating': 2.58311},
{'Area': 32.0201,
'Execution Unit/Area': 7.68434,
'Execution Unit/Complex ALUs/Area': 0.235435,
'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646,
'Execution Unit/Complex ALUs/Peak Dynamic': 0.151333,
'Execution Unit/Complex ALUs/Runtime Dynamic': 0.321552,
'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111,
'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163,
'Execution Unit/Floating Point Units/Area': 4.6585,
'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156,
'Execution Unit/Floating Point Units/Peak Dynamic': 0.781427,
'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033,
'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829,
'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061,
'Execution Unit/Gate Leakage': 0.120359,
'Execution Unit/Instruction Scheduler/Area': 1.66526,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.275653,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.000977433,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.04181,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.292931,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.0143453,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00810519,
'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00568913,
'Execution Unit/Instruction Scheduler/Instruction Window/Area': 0.805223,
'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00414562,
'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 1.6763,
'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 0.472486,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0625755,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0355964,
'Execution Unit/Instruction Scheduler/Peak Dynamic': 3.82262,
'Execution Unit/Instruction Scheduler/ROB/Area': 0.584388,
'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.00056608,
'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.10451,
'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.238495,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.00906853,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00364446,
'Execution Unit/Instruction Scheduler/Runtime Dynamic': 1.00391,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.0859892,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.047346,
'Execution Unit/Integer ALUs/Area': 0.47087,
'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291,
'Execution Unit/Integer ALUs/Peak Dynamic': 0.215224,
'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344,
'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222,
'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833,
'Execution Unit/Peak Dynamic': 5.64152,
'Execution Unit/Register Files/Area': 0.570804,
'Execution Unit/Register Files/Floating Point RF/Area': 0.208131,
'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788,
'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.147628,
'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.0122868,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968,
'Execution Unit/Register Files/Gate Leakage': 0.000622708,
'Execution Unit/Register Files/Integer RF/Area': 0.362673,
'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992,
'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.146962,
'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.0908686,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675,
'Execution Unit/Register Files/Peak Dynamic': 0.29459,
'Execution Unit/Register Files/Runtime Dynamic': 0.103155,
'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387,
'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643,
'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0390912,
'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00537402,
'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.347449,
'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 0.75927,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.081478,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0305543,
'Execution Unit/Runtime Dynamic': 2.59327,
'Execution Unit/Subthreshold Leakage': 1.79543,
'Execution Unit/Subthreshold Leakage with power gating': 0.688821,
'Gate Leakage': 0.368936,
'Instruction Fetch Unit/Area': 5.85939,
'Instruction Fetch Unit/Branch Predictor/Area': 0.138516,
'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.00074453,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.00074453,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.000648415,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000250974,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045,
'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838,
'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732,
'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05,
'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602,
'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.00130533,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733,
'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00344281,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282,
'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954,
'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758,
'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867,
'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.00714095,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357,
'Instruction Fetch Unit/Gate Leakage': 0.0589979,
'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323,
'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05,
'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827,
'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.0873543,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682,
'Instruction Fetch Unit/Instruction Cache/Area': 3.14635,
'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931,
'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 5.55648,
'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.210162,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386,
'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799,
'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493,
'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404,
'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.296695,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104,
'Instruction Fetch Unit/Peak Dynamic': 8.04467,
'Instruction Fetch Unit/Runtime Dynamic': 0.604795,
'Instruction Fetch Unit/Subthreshold Leakage': 0.932286,
'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.40843,
'L2/Area': 4.53318,
'L2/Gate Leakage': 0.015464,
'L2/Peak Dynamic': 0.0825892,
'L2/Runtime Dynamic': 0.0157535,
'L2/Subthreshold Leakage': 0.834142,
'L2/Subthreshold Leakage with power gating': 0.401066,
'Load Store Unit/Area': 8.80901,
'Load Store Unit/Data Cache/Area': 6.84535,
'Load Store Unit/Data Cache/Gate Leakage': 0.0279261,
'Load Store Unit/Data Cache/Peak Dynamic': 3.06519,
'Load Store Unit/Data Cache/Runtime Dynamic': 0.915379,
'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675,
'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085,
'Load Store Unit/Gate Leakage': 0.0350888,
'Load Store Unit/LoadQ/Area': 0.0836782,
'Load Store Unit/LoadQ/Gate Leakage': 0.00059896,
'Load Store Unit/LoadQ/Peak Dynamic': 0.0591423,
'Load Store Unit/LoadQ/Runtime Dynamic': 0.0591422,
'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961,
'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918,
'Load Store Unit/Peak Dynamic': 3.34447,
'Load Store Unit/Runtime Dynamic': 1.26619,
'Load Store Unit/StoreQ/Area': 0.322079,
'Load Store Unit/StoreQ/Gate Leakage': 0.00329971,
'Load Store Unit/StoreQ/Peak Dynamic': 0.145835,
'Load Store Unit/StoreQ/Runtime Dynamic': 0.291669,
'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621,
'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004,
'Load Store Unit/Subthreshold Leakage': 0.591321,
'Load Store Unit/Subthreshold Leakage with power gating': 0.283293,
'Memory Management Unit/Area': 0.4339,
'Memory Management Unit/Dtlb/Area': 0.0879726,
'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729,
'Memory Management Unit/Dtlb/Peak Dynamic': 0.0517572,
'Memory Management Unit/Dtlb/Runtime Dynamic': 0.0529894,
'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699,
'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485,
'Memory Management Unit/Gate Leakage': 0.00808595,
'Memory Management Unit/Itlb/Area': 0.301552,
'Memory Management Unit/Itlb/Gate Leakage': 0.00393464,
'Memory Management Unit/Itlb/Peak Dynamic': 0.345482,
'Memory Management Unit/Itlb/Runtime Dynamic': 0.0344773,
'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758,
'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842,
'Memory Management Unit/Peak Dynamic': 0.5905,
'Memory Management Unit/Runtime Dynamic': 0.0874667,
'Memory Management Unit/Subthreshold Leakage': 0.0766103,
'Memory Management Unit/Subthreshold Leakage with power gating': 0.0398333,
'Peak Dynamic': 21.2932,
'Renaming Unit/Area': 0.303608,
'Renaming Unit/FP Front End RAT/Area': 0.131045,
'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00351123,
'Renaming Unit/FP Front End RAT/Peak Dynamic': 2.51468,
'Renaming Unit/FP Front End RAT/Runtime Dynamic': 0.388343,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0308571,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.0175885,
'Renaming Unit/Free List/Area': 0.0340654,
'Renaming Unit/Free List/Gate Leakage': 2.5481e-05,
'Renaming Unit/Free List/Peak Dynamic': 0.0306032,
'Renaming Unit/Free List/Runtime Dynamic': 0.0179423,
'Renaming Unit/Free List/Subthreshold Leakage': 0.000370144,
'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000201064,
'Renaming Unit/Gate Leakage': 0.00708398,
'Renaming Unit/Int Front End RAT/Area': 0.0941223,
'Renaming Unit/Int Front End RAT/Gate Leakage': 0.000283242,
'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.731965,
'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.14182,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00435488,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00248228,
'Renaming Unit/Peak Dynamic': 3.58947,
'Renaming Unit/Runtime Dynamic': 0.548105,
'Renaming Unit/Subthreshold Leakage': 0.0552466,
'Renaming Unit/Subthreshold Leakage with power gating': 0.0276461,
'Runtime Dynamic': 5.11558,
'Subthreshold Leakage': 6.16288,
'Subthreshold Leakage with power gating': 2.55328},
{'Area': 32.0201,
'Execution Unit/Area': 7.68434,
'Execution Unit/Complex ALUs/Area': 0.235435,
'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646,
'Execution Unit/Complex ALUs/Peak Dynamic': 0.00133201,
'Execution Unit/Complex ALUs/Runtime Dynamic': 0.203735,
'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111,
'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163,
'Execution Unit/Floating Point Units/Area': 4.6585,
'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156,
'Execution Unit/Floating Point Units/Peak Dynamic': 0.00678809,
'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033,
'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829,
'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061,
'Execution Unit/Gate Leakage': 0.120359,
'Execution Unit/Instruction Scheduler/Area': 1.66526,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.275653,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.000977433,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.04181,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.171112,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.0143453,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00810519,
'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00568913,
'Execution Unit/Instruction Scheduler/Instruction Window/Area': 0.805223,
'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00414562,
'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 1.6763,
'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 0.275998,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0625755,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0355964,
'Execution Unit/Instruction Scheduler/Peak Dynamic': 3.82262,
'Execution Unit/Instruction Scheduler/ROB/Area': 0.584388,
'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.00056608,
'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.10451,
'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.139314,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.00906853,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00364446,
'Execution Unit/Instruction Scheduler/Runtime Dynamic': 0.586425,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.0859892,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.047346,
'Execution Unit/Integer ALUs/Area': 0.47087,
'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291,
'Execution Unit/Integer ALUs/Peak Dynamic': 0.194662,
'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344,
'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222,
'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833,
'Execution Unit/Peak Dynamic': 4.21597,
'Execution Unit/Register Files/Area': 0.570804,
'Execution Unit/Register Files/Floating Point RF/Area': 0.208131,
'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788,
'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.00128242,
'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.00717722,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968,
'Execution Unit/Register Files/Gate Leakage': 0.000622708,
'Execution Unit/Register Files/Integer RF/Area': 0.362673,
'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992,
'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.0524154,
'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.05308,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675,
'Execution Unit/Register Files/Peak Dynamic': 0.0536978,
'Execution Unit/Register Files/Runtime Dynamic': 0.0602572,
'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387,
'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643,
'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0390912,
'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00537402,
'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.110758,
'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 0.289621,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.081478,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0305543,
'Execution Unit/Runtime Dynamic': 1.54542,
'Execution Unit/Subthreshold Leakage': 1.79543,
'Execution Unit/Subthreshold Leakage with power gating': 0.688821,
'Gate Leakage': 0.368936,
'Instruction Fetch Unit/Area': 5.85939,
'Instruction Fetch Unit/Branch Predictor/Area': 0.138516,
'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.00225606,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.00225606,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.00204424,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000834688,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045,
'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838,
'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732,
'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05,
'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602,
'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.000762498,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733,
'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00731886,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282,
'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954,
'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758,
'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867,
'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.0188005,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357,
'Instruction Fetch Unit/Gate Leakage': 0.0589979,
'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323,
'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05,
'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827,
'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.0510271,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682,
'Instruction Fetch Unit/Instruction Cache/Area': 3.14635,
'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931,
'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 3.24576,
'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.172822,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386,
'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799,
'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493,
'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404,
'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.173311,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104,
'Instruction Fetch Unit/Peak Dynamic': 5.6218,
'Instruction Fetch Unit/Runtime Dynamic': 0.42328,
'Instruction Fetch Unit/Subthreshold Leakage': 0.932286,
'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.40843,
'L2/Area': 4.53318,
'L2/Gate Leakage': 0.015464,
'L2/Peak Dynamic': 0.00724716,
'L2/Runtime Dynamic': 0.00222875,
'L2/Subthreshold Leakage': 0.834142,
'L2/Subthreshold Leakage with power gating': 0.401066,
'Load Store Unit/Area': 8.80901,
'Load Store Unit/Data Cache/Area': 6.84535,
'Load Store Unit/Data Cache/Gate Leakage': 0.0279261,
'Load Store Unit/Data Cache/Peak Dynamic': 2.47284,
'Load Store Unit/Data Cache/Runtime Dynamic': 0.597205,
'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675,
'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085,
'Load Store Unit/Gate Leakage': 0.0350888,
'Load Store Unit/LoadQ/Area': 0.0836782,
'Load Store Unit/LoadQ/Gate Leakage': 0.00059896,
'Load Store Unit/LoadQ/Peak Dynamic': 0.0399785,
'Load Store Unit/LoadQ/Runtime Dynamic': 0.0399786,
'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961,
'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918,
'Load Store Unit/Peak Dynamic': 2.66163,
'Load Store Unit/Runtime Dynamic': 0.834345,
'Load Store Unit/StoreQ/Area': 0.322079,
'Load Store Unit/StoreQ/Gate Leakage': 0.00329971,
'Load Store Unit/StoreQ/Peak Dynamic': 0.0985802,
'Load Store Unit/StoreQ/Runtime Dynamic': 0.197161,
'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621,
'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004,
'Load Store Unit/Subthreshold Leakage': 0.591321,
'Load Store Unit/Subthreshold Leakage with power gating': 0.283293,
'Memory Management Unit/Area': 0.4339,
'Memory Management Unit/Dtlb/Area': 0.0879726,
'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729,
'Memory Management Unit/Dtlb/Peak Dynamic': 0.0349865,
'Memory Management Unit/Dtlb/Runtime Dynamic': 0.035071,
'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699,
'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485,
'Memory Management Unit/Gate Leakage': 0.00808595,
'Memory Management Unit/Itlb/Area': 0.301552,
'Memory Management Unit/Itlb/Gate Leakage': 0.00393464,
'Memory Management Unit/Itlb/Peak Dynamic': 0.20181,
'Memory Management Unit/Itlb/Runtime Dynamic': 0.0284037,
'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758,
'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842,
'Memory Management Unit/Peak Dynamic': 0.418019,
'Memory Management Unit/Runtime Dynamic': 0.0634747,
'Memory Management Unit/Subthreshold Leakage': 0.0766103,
'Memory Management Unit/Subthreshold Leakage with power gating': 0.0398333,
'Peak Dynamic': 16.5141,
'Renaming Unit/Area': 0.303608,
'Renaming Unit/FP Front End RAT/Area': 0.131045,
'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00351123,
'Renaming Unit/FP Front End RAT/Peak Dynamic': 2.51468,
'Renaming Unit/FP Front End RAT/Runtime Dynamic': 0.00337298,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0308571,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.0175885,
'Renaming Unit/Free List/Area': 0.0340654,
'Renaming Unit/Free List/Gate Leakage': 2.5481e-05,
'Renaming Unit/Free List/Peak Dynamic': 0.0306032,
'Renaming Unit/Free List/Runtime Dynamic': 0.00776117,
'Renaming Unit/Free List/Subthreshold Leakage': 0.000370144,
'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000201064,
'Renaming Unit/Gate Leakage': 0.00708398,
'Renaming Unit/Int Front End RAT/Area': 0.0941223,
'Renaming Unit/Int Front End RAT/Gate Leakage': 0.000283242,
'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.731965,
'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.0872837,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00435488,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00248228,
'Renaming Unit/Peak Dynamic': 3.58947,
'Renaming Unit/Runtime Dynamic': 0.0984179,
'Renaming Unit/Subthreshold Leakage': 0.0552466,
'Renaming Unit/Subthreshold Leakage with power gating': 0.0276461,
'Runtime Dynamic': 2.96716,
'Subthreshold Leakage': 6.16288,
'Subthreshold Leakage with power gating': 2.55328},
{'Area': 32.0201,
'Execution Unit/Area': 7.68434,
'Execution Unit/Complex ALUs/Area': 0.235435,
'Execution Unit/Complex ALUs/Gate Leakage': 0.0132646,
'Execution Unit/Complex ALUs/Peak Dynamic': 0.00108073,
'Execution Unit/Complex ALUs/Runtime Dynamic': 0.203537,
'Execution Unit/Complex ALUs/Subthreshold Leakage': 0.20111,
'Execution Unit/Complex ALUs/Subthreshold Leakage with power gating': 0.0754163,
'Execution Unit/Floating Point Units/Area': 4.6585,
'Execution Unit/Floating Point Units/Gate Leakage': 0.0656156,
'Execution Unit/Floating Point Units/Peak Dynamic': 0.00538139,
'Execution Unit/Floating Point Units/Runtime Dynamic': 0.304033,
'Execution Unit/Floating Point Units/Subthreshold Leakage': 0.994829,
'Execution Unit/Floating Point Units/Subthreshold Leakage with power gating': 0.373061,
'Execution Unit/Gate Leakage': 0.120359,
'Execution Unit/Instruction Scheduler/Area': 1.66526,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Area': 0.275653,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Gate Leakage': 0.000977433,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Peak Dynamic': 1.04181,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Runtime Dynamic': 0.0639956,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage': 0.0143453,
'Execution Unit/Instruction Scheduler/FP Instruction Window/Subthreshold Leakage with power gating': 0.00810519,
'Execution Unit/Instruction Scheduler/Gate Leakage': 0.00568913,
'Execution Unit/Instruction Scheduler/Instruction Window/Area': 0.805223,
'Execution Unit/Instruction Scheduler/Instruction Window/Gate Leakage': 0.00414562,
'Execution Unit/Instruction Scheduler/Instruction Window/Peak Dynamic': 1.6763,
'Execution Unit/Instruction Scheduler/Instruction Window/Runtime Dynamic': 0.103222,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage': 0.0625755,
'Execution Unit/Instruction Scheduler/Instruction Window/Subthreshold Leakage with power gating': 0.0355964,
'Execution Unit/Instruction Scheduler/Peak Dynamic': 3.82262,
'Execution Unit/Instruction Scheduler/ROB/Area': 0.584388,
'Execution Unit/Instruction Scheduler/ROB/Gate Leakage': 0.00056608,
'Execution Unit/Instruction Scheduler/ROB/Peak Dynamic': 1.10451,
'Execution Unit/Instruction Scheduler/ROB/Runtime Dynamic': 0.0521032,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage': 0.00906853,
'Execution Unit/Instruction Scheduler/ROB/Subthreshold Leakage with power gating': 0.00364446,
'Execution Unit/Instruction Scheduler/Runtime Dynamic': 0.219321,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage': 0.0859892,
'Execution Unit/Instruction Scheduler/Subthreshold Leakage with power gating': 0.047346,
'Execution Unit/Integer ALUs/Area': 0.47087,
'Execution Unit/Integer ALUs/Gate Leakage': 0.0265291,
'Execution Unit/Integer ALUs/Peak Dynamic': 0.0723666,
'Execution Unit/Integer ALUs/Runtime Dynamic': 0.101344,
'Execution Unit/Integer ALUs/Subthreshold Leakage': 0.40222,
'Execution Unit/Integer ALUs/Subthreshold Leakage with power gating': 0.150833,
'Execution Unit/Peak Dynamic': 3.97406,
'Execution Unit/Register Files/Area': 0.570804,
'Execution Unit/Register Files/Floating Point RF/Area': 0.208131,
'Execution Unit/Register Files/Floating Point RF/Gate Leakage': 0.000232788,
'Execution Unit/Register Files/Floating Point RF/Peak Dynamic': 0.00101666,
'Execution Unit/Register Files/Floating Point RF/Runtime Dynamic': 0.00268426,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage': 0.00399698,
'Execution Unit/Register Files/Floating Point RF/Subthreshold Leakage with power gating': 0.00176968,
'Execution Unit/Register Files/Gate Leakage': 0.000622708,
'Execution Unit/Register Files/Integer RF/Area': 0.362673,
'Execution Unit/Register Files/Integer RF/Gate Leakage': 0.00038992,
'Execution Unit/Register Files/Integer RF/Peak Dynamic': 0.0198335,
'Execution Unit/Register Files/Integer RF/Runtime Dynamic': 0.0198518,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage': 0.00614175,
'Execution Unit/Register Files/Integer RF/Subthreshold Leakage with power gating': 0.00246675,
'Execution Unit/Register Files/Peak Dynamic': 0.0208501,
'Execution Unit/Register Files/Runtime Dynamic': 0.022536,
'Execution Unit/Register Files/Subthreshold Leakage': 0.0101387,
'Execution Unit/Register Files/Subthreshold Leakage with power gating': 0.00423643,
'Execution Unit/Results Broadcast Bus/Area Overhead': 0.0390912,
'Execution Unit/Results Broadcast Bus/Gate Leakage': 0.00537402,
'Execution Unit/Results Broadcast Bus/Peak Dynamic': 0.0420538,
'Execution Unit/Results Broadcast Bus/Runtime Dynamic': 0.117301,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage': 0.081478,
'Execution Unit/Results Broadcast Bus/Subthreshold Leakage with power gating': 0.0305543,
'Execution Unit/Runtime Dynamic': 0.968072,
'Execution Unit/Subthreshold Leakage': 1.79543,
'Execution Unit/Subthreshold Leakage with power gating': 0.688821,
'Gate Leakage': 0.368936,
'Instruction Fetch Unit/Area': 5.85939,
'Instruction Fetch Unit/Branch Predictor/Area': 0.138516,
'Instruction Fetch Unit/Branch Predictor/Chooser/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Chooser/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Chooser/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Chooser/Runtime Dynamic': 0.000629764,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Chooser/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/Gate Leakage': 0.000757657,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Area': 0.0435221,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Gate Leakage': 0.000278362,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Peak Dynamic': 0.0168831,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Runtime Dynamic': 0.000629764,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage': 0.00759719,
'Instruction Fetch Unit/Branch Predictor/Global Predictor/Subthreshold Leakage with power gating': 0.0039236,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Area': 0.0257064,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Gate Leakage': 0.000154548,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Peak Dynamic': 0.0142575,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Runtime Dynamic': 0.000553658,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage': 0.00384344,
'Instruction Fetch Unit/Branch Predictor/L1_Local Predictor/Subthreshold Leakage with power gating': 0.00198631,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Area': 0.0151917,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Gate Leakage': 8.00196e-05,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Peak Dynamic': 0.00527447,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Runtime Dynamic': 0.000217139,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage': 0.00181347,
'Instruction Fetch Unit/Branch Predictor/L2_Local Predictor/Subthreshold Leakage with power gating': 0.000957045,
'Instruction Fetch Unit/Branch Predictor/Peak Dynamic': 0.0597838,
'Instruction Fetch Unit/Branch Predictor/RAS/Area': 0.0105732,
'Instruction Fetch Unit/Branch Predictor/RAS/Gate Leakage': 4.63858e-05,
'Instruction Fetch Unit/Branch Predictor/RAS/Peak Dynamic': 0.0117602,
'Instruction Fetch Unit/Branch Predictor/RAS/Runtime Dynamic': 0.000285172,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage': 0.000932505,
'Instruction Fetch Unit/Branch Predictor/RAS/Subthreshold Leakage with power gating': 0.000494733,
'Instruction Fetch Unit/Branch Predictor/Runtime Dynamic': 0.00209836,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage': 0.0199703,
'Instruction Fetch Unit/Branch Predictor/Subthreshold Leakage with power gating': 0.0103282,
'Instruction Fetch Unit/Branch Target Buffer/Area': 0.64954,
'Instruction Fetch Unit/Branch Target Buffer/Gate Leakage': 0.00272758,
'Instruction Fetch Unit/Branch Target Buffer/Peak Dynamic': 0.177867,
'Instruction Fetch Unit/Branch Target Buffer/Runtime Dynamic': 0.00585466,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage': 0.0811682,
'Instruction Fetch Unit/Branch Target Buffer/Subthreshold Leakage with power gating': 0.0435357,
'Instruction Fetch Unit/Gate Leakage': 0.0589979,
'Instruction Fetch Unit/Instruction Buffer/Area': 0.0226323,
'Instruction Fetch Unit/Instruction Buffer/Gate Leakage': 6.83558e-05,
'Instruction Fetch Unit/Instruction Buffer/Peak Dynamic': 0.606827,
'Instruction Fetch Unit/Instruction Buffer/Runtime Dynamic': 0.019084,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage': 0.00151885,
'Instruction Fetch Unit/Instruction Buffer/Subthreshold Leakage with power gating': 0.000701682,
'Instruction Fetch Unit/Instruction Cache/Area': 3.14635,
'Instruction Fetch Unit/Instruction Cache/Gate Leakage': 0.029931,
'Instruction Fetch Unit/Instruction Cache/Peak Dynamic': 1.21391,
'Instruction Fetch Unit/Instruction Cache/Runtime Dynamic': 0.0849083,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage': 0.367022,
'Instruction Fetch Unit/Instruction Cache/Subthreshold Leakage with power gating': 0.180386,
'Instruction Fetch Unit/Instruction Decoder/Area': 1.85799,
'Instruction Fetch Unit/Instruction Decoder/Gate Leakage': 0.0222493,
'Instruction Fetch Unit/Instruction Decoder/Peak Dynamic': 1.37404,
'Instruction Fetch Unit/Instruction Decoder/Runtime Dynamic': 0.0648178,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage': 0.442943,
'Instruction Fetch Unit/Instruction Decoder/Subthreshold Leakage with power gating': 0.166104,
'Instruction Fetch Unit/Peak Dynamic': 3.49133,
'Instruction Fetch Unit/Runtime Dynamic': 0.176763,
'Instruction Fetch Unit/Subthreshold Leakage': 0.932286,
'Instruction Fetch Unit/Subthreshold Leakage with power gating': 0.40843,
'L2/Area': 4.53318,
'L2/Gate Leakage': 0.015464,
'L2/Peak Dynamic': 0.0308615,
'L2/Runtime Dynamic': 0.00946088,
'L2/Subthreshold Leakage': 0.834142,
'L2/Subthreshold Leakage with power gating': 0.401066,
'Load Store Unit/Area': 8.80901,
'Load Store Unit/Data Cache/Area': 6.84535,
'Load Store Unit/Data Cache/Gate Leakage': 0.0279261,
'Load Store Unit/Data Cache/Peak Dynamic': 1.57562,
'Load Store Unit/Data Cache/Runtime Dynamic': 0.177673,
'Load Store Unit/Data Cache/Subthreshold Leakage': 0.527675,
'Load Store Unit/Data Cache/Subthreshold Leakage with power gating': 0.25085,
'Load Store Unit/Gate Leakage': 0.0350888,
'Load Store Unit/LoadQ/Area': 0.0836782,
'Load Store Unit/LoadQ/Gate Leakage': 0.00059896,
'Load Store Unit/LoadQ/Peak Dynamic': 0.0109511,
'Load Store Unit/LoadQ/Runtime Dynamic': 0.0109512,
'Load Store Unit/LoadQ/Subthreshold Leakage': 0.00941961,
'Load Store Unit/LoadQ/Subthreshold Leakage with power gating': 0.00536918,
'Load Store Unit/Peak Dynamic': 1.62733,
'Load Store Unit/Runtime Dynamic': 0.242632,
'Load Store Unit/StoreQ/Area': 0.322079,
'Load Store Unit/StoreQ/Gate Leakage': 0.00329971,
'Load Store Unit/StoreQ/Peak Dynamic': 0.0270036,
'Load Store Unit/StoreQ/Runtime Dynamic': 0.0540078,
'Load Store Unit/StoreQ/Subthreshold Leakage': 0.0345621,
'Load Store Unit/StoreQ/Subthreshold Leakage with power gating': 0.0197004,
'Load Store Unit/Subthreshold Leakage': 0.591321,
'Load Store Unit/Subthreshold Leakage with power gating': 0.283293,
'Memory Management Unit/Area': 0.4339,
'Memory Management Unit/Dtlb/Area': 0.0879726,
'Memory Management Unit/Dtlb/Gate Leakage': 0.00088729,
'Memory Management Unit/Dtlb/Peak Dynamic': 0.00958367,
'Memory Management Unit/Dtlb/Runtime Dynamic': 0.010047,
'Memory Management Unit/Dtlb/Subthreshold Leakage': 0.0155699,
'Memory Management Unit/Dtlb/Subthreshold Leakage with power gating': 0.00887485,
'Memory Management Unit/Gate Leakage': 0.00808595,
'Memory Management Unit/Itlb/Area': 0.301552,
'Memory Management Unit/Itlb/Gate Leakage': 0.00393464,
'Memory Management Unit/Itlb/Peak Dynamic': 0.0754762,
'Memory Management Unit/Itlb/Runtime Dynamic': 0.0139203,
'Memory Management Unit/Itlb/Subthreshold Leakage': 0.0413758,
'Memory Management Unit/Itlb/Subthreshold Leakage with power gating': 0.0235842,
'Memory Management Unit/Peak Dynamic': 0.248048,
'Memory Management Unit/Runtime Dynamic': 0.0239673,
'Memory Management Unit/Subthreshold Leakage': 0.0766103,
'Memory Management Unit/Subthreshold Leakage with power gating': 0.0398333,
'Peak Dynamic': 12.9611,
'Renaming Unit/Area': 0.303608,
'Renaming Unit/FP Front End RAT/Area': 0.131045,
'Renaming Unit/FP Front End RAT/Gate Leakage': 0.00351123,
'Renaming Unit/FP Front End RAT/Peak Dynamic': 2.51468,
'Renaming Unit/FP Front End RAT/Runtime Dynamic': 0.00267437,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage': 0.0308571,
'Renaming Unit/FP Front End RAT/Subthreshold Leakage with power gating': 0.0175885,
'Renaming Unit/Free List/Area': 0.0340654,
'Renaming Unit/Free List/Gate Leakage': 2.5481e-05,
'Renaming Unit/Free List/Peak Dynamic': 0.0306032,
'Renaming Unit/Free List/Runtime Dynamic': 0.00291985,
'Renaming Unit/Free List/Subthreshold Leakage': 0.000370144,
'Renaming Unit/Free List/Subthreshold Leakage with power gating': 0.000201064,
'Renaming Unit/Gate Leakage': 0.00708398,
'Renaming Unit/Int Front End RAT/Area': 0.0941223,
'Renaming Unit/Int Front End RAT/Gate Leakage': 0.000283242,
'Renaming Unit/Int Front End RAT/Peak Dynamic': 0.731965,
'Renaming Unit/Int Front End RAT/Runtime Dynamic': 0.0328993,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage': 0.00435488,
'Renaming Unit/Int Front End RAT/Subthreshold Leakage with power gating': 0.00248228,
'Renaming Unit/Peak Dynamic': 3.58947,
'Renaming Unit/Runtime Dynamic': 0.0384935,
'Renaming Unit/Subthreshold Leakage': 0.0552466,
'Renaming Unit/Subthreshold Leakage with power gating': 0.0276461,
'Runtime Dynamic': 1.45939,
'Subthreshold Leakage': 6.16288,
'Subthreshold Leakage with power gating': 2.55328}],
'DRAM': {'Area': 0,
'Gate Leakage': 0,
'Peak Dynamic': 2.2230748066814963,
'Runtime Dynamic': 2.2230748066814963,
'Subthreshold Leakage': 4.252,
'Subthreshold Leakage with power gating': 4.252},
'L3': [{'Area': 61.9075,
'Gate Leakage': 0.0484137,
'Peak Dynamic': 0.308478,
'Runtime Dynamic': 0.159019,
'Subthreshold Leakage': 6.80085,
'Subthreshold Leakage with power gating': 3.32364}],
'Processor': {'Area': 191.908,
'Gate Leakage': 1.53485,
'Peak Dynamic': 80.0444,
'Peak Power': 113.157,
'Runtime Dynamic': 20.9257,
'Subthreshold Leakage': 31.5774,
'Subthreshold Leakage with power gating': 13.9484,
'Total Cores/Area': 128.669,
'Total Cores/Gate Leakage': 1.4798,
'Total Cores/Peak Dynamic': 79.7359,
'Total Cores/Runtime Dynamic': 20.7667,
'Total Cores/Subthreshold Leakage': 24.7074,
'Total Cores/Subthreshold Leakage with power gating': 10.2429,
'Total L3s/Area': 61.9075,
'Total L3s/Gate Leakage': 0.0484137,
'Total L3s/Peak Dynamic': 0.308478,
'Total L3s/Runtime Dynamic': 0.159019,
'Total L3s/Subthreshold Leakage': 6.80085,
'Total L3s/Subthreshold Leakage with power gating': 3.32364,
'Total Leakage': 33.1122,
'Total NoCs/Area': 1.33155,
'Total NoCs/Gate Leakage': 0.00662954,
'Total NoCs/Peak Dynamic': 0.0,
'Total NoCs/Runtime Dynamic': 0.0,
'Total NoCs/Subthreshold Leakage': 0.0691322,
'Total NoCs/Subthreshold Leakage with power gating': 0.0259246}}
| 75.082057
| 124
| 0.682157
| 8,082
| 68,625
| 5.786315
| 0.0683
| 0.123511
| 0.112905
| 0.093403
| 0.937453
| 0.928857
| 0.916818
| 0.885363
| 0.859938
| 0.841634
| 0
| 0.132209
| 0.224277
| 68,625
| 914
| 125
| 75.082057
| 0.746271
| 0
| 0
| 0.642232
| 0
| 0
| 0.657258
| 0.048087
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
26acf23bc5d24877e88ff73f48e535513d791bab
| 4,930
|
py
|
Python
|
merrill_feature/feature_selection/iterative.py
|
edazizovv/merrill_feature
|
59c7fd10e833a3376ee8ca3c631a73f0a2357c4f
|
[
"MIT"
] | null | null | null |
merrill_feature/feature_selection/iterative.py
|
edazizovv/merrill_feature
|
59c7fd10e833a3376ee8ca3c631a73f0a2357c4f
|
[
"MIT"
] | null | null | null |
merrill_feature/feature_selection/iterative.py
|
edazizovv/merrill_feature
|
59c7fd10e833a3376ee8ca3c631a73f0a2357c4f
|
[
"MIT"
] | null | null | null |
#
#
import numpy
#
#
def up(x_train, y_train, x_test, y_test, model, model_kwg, on):
done = False
yield_on_train__best = 0
var_on_train__best = -1
mask = [False] * x_train.shape[1]
codes = numpy.array(numpy.arange(x_train.shape[1]))
while not done:
improved_ix = []
improved_value = []
for i in range(len(mask)):
if not mask[i]:
yield_on_train__average = []
var_on_train__average = []
mask_copy = [x for x in mask]
mask_copy[i] = True
for _ in range(10):
still = model(**model_kwg)
still.still(x_train[:, codes[mask_copy]], y_train, x_test, y_test)
summary = still.plot(X_train=x_train, Y_train=y_train, X_test=x_test, Y_test=y_test, on='filt', do_plot=False)
yield_on_train = summary[0].values[0, 0]
var_on_train = summary[0].values[0, 3]
yield_on_train__average.append(yield_on_train)
var_on_train__average.append(var_on_train)
yield_on_train__average = numpy.mean(yield_on_train__average)
var_on_train__average = numpy.mean(var_on_train__average)
yield_criteria = yield_on_train__average > yield_on_train__best
var_criteria = var_on_train__average < var_on_train__best
if on == 'yor':
if yield_criteria:
improved_ix.append(i)
improved_value.append(yield_on_train__average)
elif on == 'vor':
if var_criteria:
improved_ix.append(i)
improved_value.append(var_on_train__average)
else:
raise Exception("Feature Selection Iterative: Up: Invalid target specification - should be valued"
"as either 'yor' or 'vor'")
improved_ix = numpy.array(improved_ix)
improved_value = numpy.array(improved_value)
if len(improved_ix) == 0:
done = True
if on == 'yor' or on == 'vor':
max_ix = improved_value.argmax()
else:
raise Exception("Feature Selection Iterative: Up: Invalid target specification - should be valued"
"as either 'yor' or 'vor'")
mask[max_ix] = True
if all(mask):
done = True
return mask
def down(x_train, y_train, x_test, y_test, model, m_kwg, on):
done = False
yield_on_train__best = 0
var_on_train__best = -1
mask = [True] * x_train.shape[1]
codes = numpy.array(numpy.arange(x_train.shape[1]))
while not done:
improved_ix = []
improved_value = []
for i in range(len(mask)):
if mask[i]:
yield_on_train__average = []
var_on_train__average = []
mask_copy = [x for x in mask]
mask_copy[i] = False
for _ in range(10):
still = model(**m_kwg)
still.still(x_train[:, codes[mask_copy]], y_train, x_test, y_test)
summary = still.plot(X_train=x_train, Y_train=y_train, X_test=x_test, Y_test=y_test, on='filt', do_plot=False)
yield_on_train = summary[0].values[0, 0]
var_on_train = summary[0].values[0, 3]
yield_on_train__average.append(yield_on_train)
var_on_train__average.append(var_on_train)
yield_on_train__average = numpy.mean(yield_on_train__average)
var_on_train__average = numpy.mean(var_on_train__average)
yield_criteria = yield_on_train__average > yield_on_train__best
var_criteria = var_on_train__average < var_on_train__best
if on == 'yor':
if yield_criteria:
improved_ix.append(i)
improved_value.append(yield_on_train__average)
elif on == 'vor':
if var_criteria:
improved_ix.append(i)
improved_value.append(var_on_train__average)
else:
raise Exception("Feature Selection Iterative: Down: Cannot decide by multiple target")
improved_ix = numpy.array(improved_ix)
improved_value = numpy.array(improved_value)
if len(improved_ix) == 0:
done = True
if on == 'yor' or on == 'vor':
max_ix = improved_value.argmax()
else:
raise Exception("Feature Selection Iterative: Down: Cannot decide by multiple target")
if numpy.array(mask).sum() == 1:
done = True
else:
mask[max_ix] = False
return mask
| 31.202532
| 130
| 0.547262
| 603
| 4,930
| 4.092869
| 0.127695
| 0.113452
| 0.136143
| 0.092383
| 0.938412
| 0.938412
| 0.920583
| 0.920583
| 0.920583
| 0.898703
| 0
| 0.008657
| 0.367343
| 4,930
| 157
| 131
| 31.401274
| 0.782623
| 0
| 0
| 0.852941
| 0
| 0
| 0.075924
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.019608
| false
| 0
| 0.009804
| 0
| 0.04902
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
26b00337ce380266ba83683fbe0b62d87dd1b24b
| 53
|
py
|
Python
|
example_python_proj/__init__.py
|
ryansingman/example-python-proj
|
9c165ce7262e6f27b1d561c7d1e132b01f3f1f1d
|
[
"MIT"
] | null | null | null |
example_python_proj/__init__.py
|
ryansingman/example-python-proj
|
9c165ce7262e6f27b1d561c7d1e132b01f3f1f1d
|
[
"MIT"
] | null | null | null |
example_python_proj/__init__.py
|
ryansingman/example-python-proj
|
9c165ce7262e6f27b1d561c7d1e132b01f3f1f1d
|
[
"MIT"
] | 1
|
2021-04-14T23:14:19.000Z
|
2021-04-14T23:14:19.000Z
|
from .my_print import my_print
from .add import add
| 13.25
| 30
| 0.792453
| 10
| 53
| 4
| 0.5
| 0.35
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.169811
| 53
| 3
| 31
| 17.666667
| 0.909091
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0.5
| 1
| 0
| 0
| null | 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 1
|
0
| 7
|
f817e3aca8793fa3bb72aea09f42c9f9768c22c0
| 178
|
py
|
Python
|
kolibri/core/models.py
|
arceduardvincent/kolibri
|
26073dda2569bb38bfe1e08ba486e96f650d10ce
|
[
"MIT"
] | null | null | null |
kolibri/core/models.py
|
arceduardvincent/kolibri
|
26073dda2569bb38bfe1e08ba486e96f650d10ce
|
[
"MIT"
] | 3
|
2016-05-24T21:12:01.000Z
|
2017-03-09T22:43:08.000Z
|
kolibri/core/models.py
|
DXCanas/kolibri
|
4571fc5e5482a2dc9cd8f93dd45222a69d8a68b4
|
[
"MIT"
] | 1
|
2021-07-26T11:38:29.000Z
|
2021-07-26T11:38:29.000Z
|
from __future__ import absolute_import
from __future__ import print_function
from __future__ import unicode_literals
from kolibri.plugins import registry
registry.initialize()
| 22.25
| 39
| 0.870787
| 22
| 178
| 6.363636
| 0.545455
| 0.214286
| 0.342857
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.106742
| 178
| 7
| 40
| 25.428571
| 0.880503
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0.8
| 0
| 0.8
| 0.2
| 1
| 0
| 0
| null | 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
f874daa826fde3a371eab605422481cf7db37540
| 8,244
|
py
|
Python
|
fit_qs.py
|
gdbbzq/Pynamics_demo
|
fdf5cba3477ce00b3eea42d7b6f532ceed358409
|
[
"MIT"
] | null | null | null |
fit_qs.py
|
gdbbzq/Pynamics_demo
|
fdf5cba3477ce00b3eea42d7b6f532ceed358409
|
[
"MIT"
] | null | null | null |
fit_qs.py
|
gdbbzq/Pynamics_demo
|
fdf5cba3477ce00b3eea42d7b6f532ceed358409
|
[
"MIT"
] | null | null | null |
# [t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3] = fit_10()
import numpy
def fit_10(time_step):
#fit for 10mm/s
tinitial = 0
tfinal = 20
tstep = time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [59.39,0.09915,1.046,49.89,0.1134,4.763,4.963,0.2814,6.505]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [407.5,0.007948,0.01161,17,0.2033,-0.2733,1.725,0.4184,6.076]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [65.4,0.08329,-0.0815,8.104,0.2372,6.337,0.7624,0.5186,4.748]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_20(time_step):
#fit for 20mm/s
tinitial = 0
tfinal = 10
tstep = time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [54.05,0.2079,0.8322,37.66,0.2473,4.563,3.95,0.6362,6.234]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [73.64,0.247,-0.175,357.2,0.5185,2.136,345,0.5222,5.283]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [58.86,0.2063,-0.05415,17.15,1.042,-2.215,15.12,1.081,0.7287]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_30(time_step):
#fit for 30mm/s
tinitial = 0
tfinal = 200/30
tstep = time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [88.94,0.4628,-0.1873,128.6,0.6458,2.73,78.07,0.7099,5.841]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [64.41,0.251,0.03774,4.598,1.008,-0.6726,0.4017,1.85,-0.3148]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.27,0.2861,-0.04419,12,1.432,-1.887,9.104,1.546,0.9067]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_40(time_step):
#fit for 40mm/s
tinitial = 0
tfinal = 5
tstep = time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [41.65,0.4353,0.2967,394.5,0.9561,3.474,386.8,0.9674,6.597]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [55.94,0.3319,0.269,76.83,0.9285,3.845,72.52,0.9913,6.798]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [54.53,0.401,0.4147,104.6,0.8511,3.842,88.3,0.9431,6.758]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_50(time_step):
#fit for 50mm/s
tinitial = 0
tfinal = 4
tstep = time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [76.13,0.77,-0.1489,184.6,1.185,2.624,145.9,1.248,5.722]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [77.78,0.6091,-0.1461,1003,1.261,2.232,986.9,1.266,5.373]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.02,0.4802,-0.006005,5.151,2.465,-2.068,2.91,2.919,0.1847]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_0(time_step):
#fit for 50mm/s
tinitial = 0
tfinal = 10
tstep = time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [0,0,0,0,0,0,0,0,0]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [0,0,0,0,0,0,0,0,0]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [0,0,0,0,0,0,0,0,0]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_10_amount(time_step):
#fit for 10mm/s
tinitial = 0
tfinal = 20
tstep = (tfinal-tinitial)/ time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [59.39,0.09915,1.046,49.89,0.1134,4.763,4.963,0.2814,6.505]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [407.5,0.007948,0.01161,17,0.2033,-0.2733,1.725,0.4184,6.076]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [65.4,0.08329,-0.0815,8.104,0.2372,6.337,0.7624,0.5186,4.748]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_20_amount(time_step):
#fit for 20mm/s
tinitial = 0
tfinal = 10
tstep = (tfinal-tinitial)/ time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [54.05,0.2079,0.8322,37.66,0.2473,4.563,3.95,0.6362,6.234]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [73.64,0.247,-0.175,357.2,0.5185,2.136,345,0.5222,5.283]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [58.86,0.2063,-0.05415,17.15,1.042,-2.215,15.12,1.081,0.7287]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_30_amount(time_step):
#fit for 30mm/s
tinitial = 0
tfinal = 200/30
tstep = (tfinal-tinitial)/ time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [88.94,0.4628,-0.1873,128.6,0.6458,2.73,78.07,0.7099,5.841]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [64.41,0.251,0.03774,4.598,1.008,-0.6726,0.4017,1.85,-0.3148]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.27,0.2861,-0.04419,12,1.432,-1.887,9.104,1.546,0.9067]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_40_amount(time_step):
#fit for 40mm/s
tinitial = 0
tfinal = 5
tstep = (tfinal-tinitial)/ time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [41.65,0.4353,0.2967,394.5,0.9561,3.474,386.8,0.9674,6.597]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [55.94,0.3319,0.269,76.83,0.9285,3.845,72.52,0.9913,6.798]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [54.53,0.401,0.4147,104.6,0.8511,3.842,88.3,0.9431,6.758]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_50_amount(time_step):
#fit for 50mm/s
tinitial = 0
tfinal = 4
tstep = (tfinal-tinitial)/ time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [76.13,0.77,-0.1489,184.6,1.185,2.624,145.9,1.248,5.722]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [77.78,0.6091,-0.1461,1003,1.261,2.232,986.9,1.266,5.373]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [59.02,0.4802,-0.006005,5.151,2.465,-2.068,2.91,2.919,0.1847]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def fit_0_amount(time_step):
#fit for 50mm/s
tinitial = 0
tfinal = 10
tstep = (tfinal-tinitial)/ time_step
t = numpy.r_[tinitial:tfinal:tstep]
qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3 = [0,0,0,0,0,0,0,0,0]
qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3 = [0,0,0,0,0,0,0,0,0]
qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3 = [0,0,0,0,0,0,0,0,0]
return t,tinitial,tfinal,tstep,qAa1,qAb1,qAc1,qAa2,qAb2,qAc2,qAa3,qAb3,qAc3,qBa1,qBb1,qBc1,qBa2,qBb2,qBc2,qBa3,qBb3,qBc3,qCa1,qCb1,qCc1,qCa2,qCb2,qCc2,qCa3,qCb3,qCc3
def exp_fit(x,a1, b1, c1,a2,b2,c2,a3,b3,c3):
from scipy import sin
return a1*sin(b1*x+c1)+a2*sin(b2*x+c2)+a3*sin(b3*x+c3)
def exp_fit2(x,a1, b1, c1,a2,b2,c2,a3,b3,c3,extra_time):
from scipy import sin
fit_1 = a1*sin(b1*x+c1)+a2*sin(b2*x+c2)+a3*sin(b3*x+c3)
return
| 56.465753
| 175
| 0.6828
| 1,683
| 8,244
| 3.309566
| 0.128342
| 0.017235
| 0.022621
| 0.025853
| 0.981508
| 0.977199
| 0.977199
| 0.977199
| 0.977199
| 0.977199
| 0
| 0.279471
| 0.120209
| 8,244
| 146
| 176
| 56.465753
| 0.488488
| 0.04197
| 0
| 0.844828
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.12069
| false
| 0
| 0.025862
| 0
| 0.267241
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 9
|
f880a8f7be9fc0f712a73644df4bb3a6f7d04ae0
| 16,489
|
py
|
Python
|
Limix_QTL/qtl_parse_args.py
|
Bonder-MJ/limix_qtl
|
71f18f4e39cdba0f0e6dc59713b83701599bc86f
|
[
"Apache-2.0"
] | 7
|
2020-05-17T18:36:50.000Z
|
2021-12-01T11:24:24.000Z
|
Limix_QTL/qtl_parse_args.py
|
Bonder-MJ/limix_qtl
|
71f18f4e39cdba0f0e6dc59713b83701599bc86f
|
[
"Apache-2.0"
] | 2
|
2021-04-27T19:15:17.000Z
|
2022-01-13T09:51:27.000Z
|
Limix_QTL/qtl_parse_args.py
|
Bonder-MJ/limix_qtl
|
71f18f4e39cdba0f0e6dc59713b83701599bc86f
|
[
"Apache-2.0"
] | 6
|
2019-12-04T09:57:28.000Z
|
2022-03-14T02:20:10.000Z
|
import argparse
def get_args():
parser = argparse.ArgumentParser(description='Run QTL analysis given genotype, phenotype, and annotation.')
parser.add_argument('--bgen','-bg',required=False)
parser.add_argument('--plink','-pg',required=False)
parser.add_argument('--annotation_file','-af', required=True)
parser.add_argument('--phenotype_file','-pf', required=True)
parser.add_argument('--output_directory','-od', required=True)
parser.add_argument('--window','-w', required=False,
help=
'The size of the cis window to take SNPs from.'
'The window will extend between: '
' (feature_start - (window)) '
' and: '
' (feature_end + (window)) ',default=250000)
parser.add_argument('--genomic_range','-gr',required=False,
help=
'A genomic range to do selecte features to be considered in the analysis.'
'Available options: all (default), a chromsome or chromosome:start-end.',default='all')
parser.add_argument('--covariates_file','-cf',required=False,default=None)
parser.add_argument('--randomeff_files','-rf',required=False,default=None,
help = """The random effect files divided by a comma. The first one should be the kinship file and the second one should contain the read depth. You can also
just input only one of them but the order is important""")
parser.add_argument('--sample_mapping_file','-smf',required=False,default=None)
parser.add_argument('--minor_allel_frequency','-maf',required=False,default=0.05)
parser.add_argument('--hardy_weinberg_equilibrium','-hwe',required=False,default=0.0001)
parser.add_argument('--call_rate','-cr',required=False,default=0.95)
parser.add_argument('--block_size','-bs',required=False,default=1500)
parser.add_argument('--number_of_permutations','-np',required=False,default=10)
parser.add_argument('--variant_filter','-vf',required=False,default=None)
parser.add_argument('--feature_variant_covariate','-fvc',required=False,default=None)
parser.add_argument('--feature_variant_filter','-fvf',required=False,default=None)
parser.add_argument('--feature_filter','-ff',required=False,default=None)
parser.add_argument('--seed','-s',required=False)
parser.add_argument('--extended_annotation_file','-eaf',
help=
'Secondary annotation file, to add a multiple locations to one feature.'
'This can be used to either link multiple test regions to one feature or exclude multiple regions while testing a feature.', required=False)
parser.add_argument('--relatedness_score','-rs',required=False,default=None)
parser.add_argument('--write_permutations','-wp',action="store_true",required=False,default=False)
parser.add_argument('--write_feature_top_permutations','-wftp',action='store_true',required=False,default=False)
parser.add_argument('--minimum_test_samples','-mts',
help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.",required=False,default=10)
parser.add_argument("--gaussianize_method","-gm",
help="Force normal distribution on phenotypes.", default=None)
parser.add_argument("--cis","-c",
action="store_true",
help="Run cis analysis.", default=False)
parser.add_argument("--trans","-t",
action="store_true",
help="Run trans analysis.", default=False)
parser.add_argument("--no_chromosome_filter","-ncf",
action="store_true",
help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for."
"When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False)
parser.add_argument("--regress_covariates","-rc",
action="store_true",
help="Regress-out covariates, using a LMM, before running the QTL mapping.", default=False)
parser.add_argument("--debugger","-d",
action="store_true",
help="Print the time needed for each step", default=False)
args = parser.parse_args()
return args
def get_interaction_args():
parser = argparse.ArgumentParser(description='Run QTL analysis given genotype, phenotype, and annotation.')
parser.add_argument('--bgen','-bg',required=False)
parser.add_argument('--plink','-pg',required=False)
parser.add_argument('--annotation_file','-af', required=True)
parser.add_argument('--phenotype_file','-pf', required=True)
parser.add_argument('--output_directory','-od', required=True)
parser.add_argument('--interaction_term','-it',
help=
'Term to use for the interaction analysis, values are extracted from the covariate matrix.'
'The interaction term is also taken along in the covariate matrix.',required=True,default=None)
parser.add_argument('--window','-w', required=False,
help=
'The size of the cis window to take SNPs from.'
'The window will extend between: '
' (feature_start - (window)) '
' and: '
' (feature_end + (window)) ',default=250000)
parser.add_argument('--genomic_range','-gr',required=False,
help=
'A genomic range to do selecte features to be considered in the analysis.'
'Available options: all (default), a chromsome or chromosome:start-end.',default='all')
parser.add_argument('--covariates_file','-cf',required=False,default=None)
parser.add_argument('--kinship_file','-kf',required=False,default=None)
parser.add_argument('--sample_mapping_file','-smf',required=False,default=None)
parser.add_argument('--minor_allel_frequency','-maf',required=False,default=0.05)
parser.add_argument('--hardy_weinberg_equilibrium','-hwe',required=False,default=0.0001)
parser.add_argument('--call_rate','-cr',required=False,default=0.95)
parser.add_argument('--block_size','-bs',required=False,default=1500)
parser.add_argument('--number_of_permutations','-np',required=False,default=10)
parser.add_argument('--variant_filter','-vf',required=False,default=None)
parser.add_argument('--feature_variant_covariate','-fvc',required=False,default=None)
parser.add_argument('--feature_variant_filter','-fvf',required=False,default=None)
parser.add_argument('--feature_filter','-ff',required=False,default=None)
parser.add_argument('--seed','-s',required=False)
parser.add_argument('--extended_annotation_file','-eaf',
help=
'Secondary annotation file, to add a multiple locations to one feature.'
'This can be used to either link multiple test regions to one feature or exclude multiple regions while testing a feature.', required=False)
parser.add_argument('--regress_snp_interaction','-rsi', action="store_true",required=False,default=False)
parser.add_argument("--regress_covariates","-rc",
action="store_true",
help="Regress-out covariates, using a LMM, before running the QTL mapping.", default=False)
parser.add_argument('--relatedness_score','-rs',required=False,default=None)
parser.add_argument('--write_permutations','-wp',action="store_true",required=False,default=False)
parser.add_argument('--minimum_test_samples','-mts',
help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.",required=False,default=10)
parser.add_argument("--gaussianize_method","-gm",
help="Force normal distribution on phenotypes.", default=None)
parser.add_argument("--cis","-c",
action="store_true",
help="Run cis analysis.", default=False)
parser.add_argument("--trans","-t",
action="store_true",
help="Run trans analysis.", default=False)
parser.add_argument("--no_chromosome_filter","-ncf",
action="store_true",
help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for."
"When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False)
args = parser.parse_args()
return args
def get_struct_args():
parser = argparse.ArgumentParser(description='Run structLMM QTL analysis given genotype, phenotype, environments and annotation.')
parser.add_argument('--bgen','-bg', required=False)
parser.add_argument('--plink','-pg', required=False)
parser.add_argument('--annotation_file','-af', required=True)
parser.add_argument('--phenotype_file','-pf', required=True)
parser.add_argument('--output_directory','-od', required=True)
parser.add_argument('--environment_file','-ef', required=True)
parser.add_argument('--window','-w', required=False,
help=
'The size of the cis window to take SNPs from.'
'The window will extend between: '
' (feature_start - (window)) '
' and: '
' (feature_end + (window)) ', default=250000)
parser.add_argument('--genomic_range','-gr', required=False,
help=
'A genomic range to do selecte features to be considered in the analysis.'
'Available options: all (default), a chromsome or chromosome:start-end.', default='all')
parser.add_argument('--covariates_file','-cf', required=False, default=None)
parser.add_argument('--kinship_file','-kf', required=False, default=None)
parser.add_argument('--sample_mapping_file','-smf', required=False, default=None)
parser.add_argument('--minor_allel_frequency','-maf', required=False, default=0.05)
parser.add_argument('--hardy_weinberg_equilibrium','-hwe', required=False, default=0.0001)
parser.add_argument('--call_rate','-cr', required=False, default=0.95)
parser.add_argument('--block_size','-bs', required=False, default=1500)
parser.add_argument('--number_of_permutations','-np', required=False, default=10)
parser.add_argument('--variant_filter','-vf', required=False, default=None)
parser.add_argument('--feature_variant_covariate','-fvc', required=False, default=None)
parser.add_argument('--feature_variant_filter','-fvf', required=False, default=None)
parser.add_argument('--feature_filter','-ff', required=False, default=None)
parser.add_argument('--seed','-s', required=False)
parser.add_argument('--extended_annotation_file','-eaf',
help=
'Secondary annotation file, to add a multiple locations to one feature.'
'This can be used to either link multiple test regions to one feature or exclude multiple regions while testing a feature.', required=False)
parser.add_argument('--relatedness_score','-rs', required=False, default=None)
parser.add_argument('--write_permutations','-wp', action="store_true", required=False, default=False)
parser.add_argument('--minimum_test_samples','-mts',
help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.", required=False, default=10)
parser.add_argument("--gaussianize_method","-gm",
help="Force normal distribution on phenotypes.", default=None)
parser.add_argument("--cis","-c",
action="store_true",
help="Run cis analysis.", default=False)
parser.add_argument("--trans","-t",
action="store_true",
help="Run trans analysis.", default=False)
parser.add_argument("--interaction_mode","-im",
action="store_true",
help="Run structLMM in interaction mode.", default=False)
parser.add_argument("--association_mode","-am",
action="store_true",
help="Run structLMM in association mode.", default=False)
parser.add_argument("--no_chromosome_filter","-ncf",
action="store_true",
help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for."
"When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False)
args = parser.parse_args()
return args
def get_grsQtl_args():
parser = argparse.ArgumentParser(description='Run GRS QT analysis given genotype, phenotype, and annotation.')
parser.add_argument('--genetic_risk_scores','-grs',required=True)
parser.add_argument('--annotation_file','-af', required=True)
parser.add_argument('--phenotype_file','-pf', required=True)
parser.add_argument('--output_directory','-od', required=True)
parser.add_argument('--genomic_range','-gr',required=False,
help=
'A genomic range to do selecte features to be considered in the analysis.'
'Available options: all (default), a chromsome or chromosome:start-end.',default='all')
parser.add_argument('--covariates_file','-cf',required=False,default=None)
parser.add_argument('--kinship_file','-kf',required=False,default=None)
parser.add_argument('--sample_mapping_file','-smf',required=False,default=None)
parser.add_argument('--call_rate','-cr',required=False,default=0.95)
parser.add_argument('--block_size','-bs',required=False,default=1500)
parser.add_argument('--number_of_permutations','-np',required=False,default=10)
parser.add_argument('--variant_filter','-vf',required=False,default=None)
parser.add_argument('--feature_variant_covariate','-fvc',required=False,default=None)
parser.add_argument('--feature_variant_filter','-fvf',required=False,default=None)
parser.add_argument('--feature_filter','-ff',required=False,default=None)
parser.add_argument('--seed','-s',required=False)
parser.add_argument('--relatedness_score','-rs',required=False,default=None)
parser.add_argument('--write_permutations','-wp',action="store_true",required=False,default=False)
parser.add_argument('--minimum_test_samples','-mts',
help="The minimal number of samples with non-NA values to consider a feature for a QTL test, if covariates are used the number of covariates is added to this value.",required=False,default=10)
parser.add_argument("--gaussianize_method","-gm",
help="Force normal distribution on phenotypes.", default=None)
parser.add_argument("--no_chromosome_filter","-ncf",
action="store_true",
help="Don't filter on autosomes. By default only autosomes are selected, this is where the defaults are designed for."
"When running on X/Y/MT please be aware that these defaults might not be appropriate.", default=False)
parser.add_argument("--regress_covariates","-rc",
action="store_true",
help="Regress-out covariates, using a LMM, before running the QTL mapping.", default=False)
args = parser.parse_args()
return args
| 72.960177
| 218
| 0.635757
| 1,943
| 16,489
| 5.24807
| 0.123006
| 0.1015
| 0.191723
| 0.070609
| 0.937825
| 0.931647
| 0.918996
| 0.912523
| 0.909679
| 0.903795
| 0
| 0.006808
| 0.233853
| 16,489
| 225
| 219
| 73.284444
| 0.800364
| 0
| 0
| 0.895455
| 0
| 0.054545
| 0.428104
| 0.057796
| 0
| 0
| 0
| 0
| 0
| 1
| 0.018182
| false
| 0
| 0.009091
| 0
| 0.045455
| 0
| 0
| 0
| 0
| null | 0
| 1
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
f888b23b5dcb3da6f0c9ef8bb43251e9a125e7f0
| 97
|
py
|
Python
|
src/imitation/algorithms/__init__.py
|
ymetz/imitation
|
310e81d54e1c8a3a14bc53df61e982efba068ea0
|
[
"MIT"
] | null | null | null |
src/imitation/algorithms/__init__.py
|
ymetz/imitation
|
310e81d54e1c8a3a14bc53df61e982efba068ea0
|
[
"MIT"
] | null | null | null |
src/imitation/algorithms/__init__.py
|
ymetz/imitation
|
310e81d54e1c8a3a14bc53df61e982efba068ea0
|
[
"MIT"
] | null | null | null |
from imitation.algorithms.bc import BC
from imitation.algorithms.adversarial import AIRL, GAIL
| 32.333333
| 56
| 0.835052
| 13
| 97
| 6.230769
| 0.615385
| 0.320988
| 0.567901
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.113402
| 97
| 2
| 57
| 48.5
| 0.94186
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 1
| 0
| 1
| 0
| 1
| 0
| 0
| null | 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
3e2769fb19f5ead44061df14e3158d30d67744b1
| 26,514
|
py
|
Python
|
MILES/pylib/lib_corr.py
|
kxxdhdn/MISSILE
|
89dea38aa9247f20c444ccd0b832c674be275fbf
|
[
"BSD-3-Clause"
] | null | null | null |
MILES/pylib/lib_corr.py
|
kxxdhdn/MISSILE
|
89dea38aa9247f20c444ccd0b832c674be275fbf
|
[
"BSD-3-Clause"
] | null | null | null |
MILES/pylib/lib_corr.py
|
kxxdhdn/MISSILE
|
89dea38aa9247f20c444ccd0b832c674be275fbf
|
[
"BSD-3-Clause"
] | null | null | null |
#!/usr/bin/env python
# -*- coding: utf-8 -*-
"""
This is the visualization of correlations
"""
import os, pathlib
import numpy as np
import matplotlib.colors as mcolors
## rapyuta
from rapyuta.arrays import closest
from rapyuta.inout import read_hdf5
## local
from auxil import croot
## Path
##------
path_out = croot+'../out/'
h5_obs = path_out+'observation_MIR'
h5_model = path_out+'input_model'
## Read fit
##----------
labB = read_hdf5(h5_model, 'label band')
labL = read_hdf5(h5_model, 'label line')
## Colors and markers
##--------------------
spec_name = read_hdf5(h5_obs, 'spectrum labels')
clist = []
mlist = []
for y in range(spec_name.shape[0]):
if spec_name[y,0][0]=='A':
clist.append( ((y)/14+.5, 0, 0) )
mlist.append('*')
elif spec_name[y,0][0]=='B':
clist.append( (.8, (y-7+1)/14+.2, .2) )
mlist.append('*')
elif spec_name[y,0][0]=='C':
clist.append( ((y-14+1)/14+.5, (y-14+1)/14+.5, 0) )
mlist.append('*')
elif spec_name[y,0][0]=='D':
clist.append( (0, (y-21)/8+.5, 0) )
mlist.append('d')
# elif spec_name[y,0][0]=='E':
# clist.append('lime')
# mlist.append('d')
elif spec_name[y,0][0]=='F':
clist.append( (.9, (y-25+1)/6+.5, .8) )
mlist.append('v')
elif spec_name[y,0][0]=='G':
clist.append( ((y-27+1)/3+.3, 0, (y-27+1)/3+.3) )
mlist.append('v')
elif spec_name[y,0][0]=='H':
clist.append( (0, (y-29+1)/3+.3, (y-29+1)/3+.3) )
mlist.append('v')
elif spec_name[y,0][0]=='I':
clist.append( (0, 0, (y-31+1)/3+.3) )
mlist.append('v')
elif spec_name[y,0][0]=='J':
clist.append( (0, 0, (y-33+1)/3+.3) )
mlist.append('^')
elif spec_name[y,0][0]=='K':
clist.append( ((y-35+1)/3+.3, 0, (y-35+1)/3+.3) )
mlist.append('^')
elif spec_name[y,0][0]=='L':
clist.append( (.9, (y-37+1)/6+.5, .8) )
mlist.append('^')
elif spec_name[y,0][0]=='M':
clist.append( (0, (y-39+1)/3+.3, (y-39+1)/3+.3) )
mlist.append('^')
# elif spec_name[y,0][0]=='N':
# clist.append('b')
# mlist.append('s')
## Ratios
##--------
mode = ['chi2', 'bb', 'hb']
for m in mode:
filout = path_out+'fit_'+m
h5_out = pathlib.Path(filout+'.h5')
if h5_out.exists():
labels = []
fnames = []
if m=='chi2':
parname = read_hdf5(filout, 'Parameter label')
par = read_hdf5(filout, 'Best fitted parameter value')
parerr = read_hdf5(filout, 'Best fitted parameter error')
par[par==0] = np.nan
values_chi2 = []
errors_chi2 = []
limits_chi2 = []
else:
filmcmc = path_out+'parlog_fit_'+m
parname = read_hdf5(filmcmc, 'Parameter label')
parmcmc = read_hdf5(filmcmc, 'Parameter values')
t_end = read_hdf5(filmcmc, 'Last index')[0]
t_burnin = int(t_end/10) - 1
if m=='bb':
values_bb = []
errors_bb = []
limits_bb = []
else:
values_hb = []
errors_hb = []
limits_hb = []
## 11.3 complex
i1 = np.where(labB=='Main 11.2')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
i2 = np.where(labB=='Plateau 11.3')[0][0]+1
ipar2 = np.where(parname=='lnRband'+str(i2))[0][0]
if m=='chi2':
v0 = 1 + np.exp(par[ipar2,:,:])
e0 = (np.exp(par[ipar2,:,:]) * parerr[ipar2,:,:])**2
else:
v0 = 1 + np.exp(parmcmc[t_burnin:t_end,ipar2,:,:])
##----------------------------------------------
## I11.3/I11.2
if m=='chi2':
v = v0.flatten()
e = np.sqrt( e0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I11.3/I11.2')
fnames.append('I11.3_ov_I11.2')
## I3.3/I11.3
i1 = np.where(labB=='Main 3.3')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
if m=='chi2':
v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten()
e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2
+ np.exp(par[ipar1,:,:])**2 * e0 )
/ v0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I3.3/I11.3')
fnames.append('I3.3_ov_I11.3')
## I6.2/I11.3
i1 = np.where(labB=='Main 6.2 (1)')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
i2 = np.where(labB=='Main 6.2 (2)')[0][0]+1
ipar2 = np.where(parname=='lnRband'+str(i2))[0][0]
if m=='chi2':
v = ( (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])) / v0 ).flatten()
e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2
+ (np.exp(par[ipar2,:,:])*parerr[ipar2,:,:])**2
+ (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:]))**2 * e0 )
/ v0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
+parmcmc[t_burnin:t_end,ipar2,:,:]) / v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I6.2/I11.3')
fnames.append('I6.2_ov_I11.3')
## I7.7/I11.3
i1 = np.where(labB=='Plateau 7.7')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
i2 = np.where(labB=='Main 7.7 (1)')[0][0]+1
ipar2 = np.where(parname=='lnRband'+str(i2))[0][0]
i3 = np.where(labB=='Main 7.7 (2)')[0][0]+1
ipar3 = np.where(parname=='lnRband'+str(i3))[0][0]
if m=='chi2':
v = ( (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])+np.exp(par[ipar3,:,:])) / v0 ).flatten()
e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2
+ (np.exp(par[ipar2,:,:])*parerr[ipar2,:,:])**2
+ (np.exp(par[ipar3,:,:])*parerr[ipar3,:,:])**2
+ (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])+np.exp(par[ipar3,:,:]))**2 * e0 )
/ v0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
+parmcmc[t_burnin:t_end,ipar2,:,:]
+parmcmc[t_burnin:t_end,ipar3,:,:]) / v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I7.7/I11.3')
fnames.append('I7.7_ov_I11.3')
## I8.6/I11.3
i1 = np.where(labB=='Main 8.6')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
if m=='chi2':
v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten()
e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2
+ np.exp(par[ipar1,:,:])**2 * e0 )
/ v0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I8.6/I11.3')
fnames.append('I8.6_ov_I11.3')
## I12.7/I11.3
i1 = np.where(labB=='Main 12.7 (1)')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
i2 = np.where(labB=='Main 12.7 (2)')[0][0]+1
ipar2 = np.where(parname=='lnRband'+str(i2))[0][0]
if m=='chi2':
v = ( (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:])) / v0 ).flatten()
e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2
+ (np.exp(par[ipar2,:,:])*parerr[ipar2,:,:])**2
+ (np.exp(par[ipar1,:,:])+np.exp(par[ipar2,:,:]))**2 * e0 )
/ v0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
+parmcmc[t_burnin:t_end,ipar2,:,:]) / v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I12.7/I11.3')
fnames.append('I12.7_ov_I11.3')
## I17.0/I11.3
i1 = np.where(labB=='Plateau 17.0')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
if m=='chi2':
v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten()
e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2
+ np.exp(par[ipar1,:,:])**2 * e0 )
/ v0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I17.0/I11.3')
fnames.append('I17.0_ov_I11.3')
## I3.4/I3.3
i1 = np.where(labB=='Main 3.4')[0][0]+1
ipar1 = np.where(parname=='lnRband'+str(i1))[0][0]
i2 = np.where(labB=='Main 3.3')[0][0]+1
ipar2 = np.where(parname=='lnRband'+str(i2))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('I3.4/I3.3')
fnames.append('I3.4_ov_I3.3')
## [NeIII]/[NeII]
i1 = np.where(labL=='NeIII1')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='NeII ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[NeIII]/[NeII]')
fnames.append('[NeIII]_ov_[NeII]')
## [SIV]/[SIII]
i1 = np.where(labL=='SIV ')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='SIII1 ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[SIV]/[SIII]')
fnames.append('[SIV]_ov_[SIII]')
## [SIV]/[NeII]
i1 = np.where(labL=='SIV ')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='NeII ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[SIV]/[NeII]')
fnames.append('[SIV]_ov_[NeII]')
## [NeIII]/[SIII]
i1 = np.where(labL=='NeIII1')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='SIII1 ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[NeIII]/[SIII]')
fnames.append('[NeIII]_ov_[SIII]')
## [NeIII]/[NeII](r)
i1 = np.where(labL=='NeIII1')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='NeII ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
i3 = np.where(labB=='Main 12.7 (1)')[0][0]+1
ipar3 = np.where(parname=='lnRband'+str(i3))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:]+par[ipar3,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2+parerr[ipar3,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:]
+parmcmc[t_burnin:t_end,ipar3,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[NeIII]/[NeII](r)')
fnames.append('[NeIII]_ov_[NeII](r)')
## [ArIII]/[ArII]
i1 = np.where(labL=='ArIII1')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='ArII ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[ArIII]/[ArII]')
fnames.append('[ArIII]_ov_[ArII]')
## [SIV]/[NeII](r)
i1 = np.where(labL=='SIV ')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='NeII ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
i3 = np.where(labB=='Main 12.7 (1)')[0][0]+1
ipar3 = np.where(parname=='lnRband'+str(i3))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]-par[ipar2,:,:]+par[ipar3,:,:] ).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2+parerr[ipar3,:,:]**2 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]
-parmcmc[t_burnin:t_end,ipar2,:,:]
+parmcmc[t_burnin:t_end,ipar3,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[SIV]/[NeII](r)')
fnames.append('[SIV]_ov_[NeII](r)')
## [H2S1-7]/(I7.7+I8.6)
i1 = np.where(labL=='H2S1 ')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
i2 = np.where(labL=='H2S2 ')[0][0]+1
ipar2 = np.where(parname=='lnRline'+str(i2))[0][0]
i3 = np.where(labL=='H2S3 ')[0][0]+1
ipar3 = np.where(parname=='lnRline'+str(i3))[0][0]
i4 = np.where(labL=='H2S5 ')[0][0]+1
ipar4 = np.where(parname=='lnRline'+str(i4))[0][0]
i5 = np.where(labL=='H2S7 ')[0][0]+1
ipar5 = np.where(parname=='lnRline'+str(i5))[0][0]
i6 = np.where(labB=='Plateau 7.7')[0][0]+1
ipar6 = np.where(parname=='lnRband'+str(i6))[0][0]
i7 = np.where(labB=='Main 7.7 (1)')[0][0]+1
ipar7 = np.where(parname=='lnRband'+str(i7))[0][0]
i8 = np.where(labB=='Main 7.7 (2)')[0][0]+1
ipar8 = np.where(parname=='lnRband'+str(i8))[0][0]
i9 = np.where(labB=='Main 8.6')[0][0]+1
ipar9 = np.where(parname=='lnRband'+str(i9))[0][0]
if m=='chi2':
v = np.exp( par[ipar1,:,:]+par[ipar2,:,:]+par[ipar3,:,:]
+par[ipar4,:,:]+par[ipar5,:,:]-par[ipar6,:,:]
-par[ipar7,:,:]-par[ipar8,:,:]-par[ipar9,:,:]).flatten()
e = v * np.sqrt( parerr[ipar1,:,:]**2+parerr[ipar2,:,:]**2+parerr[ipar3,:,:]**2
+parerr[ipar4,:,:]**2+parerr[ipar5,:,:]**2+parerr[ipar6,:,:]**2
+parerr[ipar7,:,:]**2+parerr[ipar8,:,:]**2+parerr[ipar9,:,:]**2).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp( parmcmc[t_burnin:t_end,ipar1,:,:]
+parmcmc[t_burnin:t_end,ipar2,:,:]
+parmcmc[t_burnin:t_end,ipar3,:,:]
+parmcmc[t_burnin:t_end,ipar4,:,:]
+parmcmc[t_burnin:t_end,ipar5,:,:]
-parmcmc[t_burnin:t_end,ipar6,:,:]
-parmcmc[t_burnin:t_end,ipar7,:,:]
-parmcmc[t_burnin:t_end,ipar8,:,:]
-parmcmc[t_burnin:t_end,ipar9,:,:])
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[H2S1-7]/(I7.7+I8.6)')
fnames.append('[H2S1-7]_ov_I7.7+I8.6')
## [H2S1]/I11.3
i1 = np.where(labL=='H2S1 ')[0][0]+1
ipar1 = np.where(parname=='lnRline'+str(i1))[0][0]
if m=='chi2':
v = ( np.exp(par[ipar1,:,:]) / v0 ).flatten()
e = ( np.sqrt( (np.exp(par[ipar1,:,:])*parerr[ipar1,:,:])**2
+ np.exp(par[ipar1,:,:])**2 * e0 )
/ v0 ).flatten()
values_chi2.append(v)
errors_chi2.append(e)
limits_chi2.append((1e-2,1e1))
else:
vf = np.exp(parmcmc[t_burnin:t_end,ipar1,:,:]) / v0
v = np.median( vf, axis=0 ).flatten()
e1 = v - np.quantile( vf, 1/3, axis=0 ).flatten()
e2 = np.quantile( vf, 2/3, axis=0 ).flatten() - v
e = [e1,e2]
if m=='bb':
values_bb.append(v)
errors_bb.append(e)
limits_bb.append((1e-2,1e1))
else:
values_hb.append(v)
errors_hb.append(e)
limits_hb.append((1e-2,1e1))
labels.append('[H2S1]/I11.3')
fnames.append('[H2S1]_ov_I11.3')
print(len(values_chi2))
print(len(values_hb))
| 39.870677
| 109
| 0.456287
| 3,601
| 26,514
| 3.270203
| 0.053041
| 0.016644
| 0.056301
| 0.05197
| 0.84927
| 0.799932
| 0.790251
| 0.776664
| 0.772249
| 0.752208
| 0
| 0.080114
| 0.339028
| 26,514
| 664
| 110
| 39.930723
| 0.59184
| 0.023346
| 0
| 0.735043
| 0
| 0
| 0.055461
| 0.000813
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0
| 0.010256
| 0
| 0.010256
| 0.003419
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
e43e6b42625a958e2eac8d21709ecfee9c9ab0ac
| 2,452
|
py
|
Python
|
tests/test_dumptool.py
|
loftwah/jsoncsv
|
eec6a1e38d3d7430268c1a7962b200ffcb2b15ae
|
[
"Apache-2.0"
] | 74
|
2016-07-28T01:47:22.000Z
|
2022-03-09T02:49:37.000Z
|
tests/test_dumptool.py
|
loftwah/jsoncsv
|
eec6a1e38d3d7430268c1a7962b200ffcb2b15ae
|
[
"Apache-2.0"
] | 31
|
2017-07-11T09:24:48.000Z
|
2021-07-30T03:59:54.000Z
|
tests/test_dumptool.py
|
loftwah/jsoncsv
|
eec6a1e38d3d7430268c1a7962b200ffcb2b15ae
|
[
"Apache-2.0"
] | 20
|
2016-10-30T10:58:38.000Z
|
2022-01-11T02:11:00.000Z
|
# coding=utf-8
# author@alingse
# 2018.03.29
import io
import unittest
from jsoncsv.dumptool import DumpCSV
from jsoncsv.dumptool import DumpXLS
from jsoncsv.dumptool import dump_excel
class TestDumpTool(unittest.TestCase):
# FIXME (使用虚拟文件)
def test_dumpexcel_csv(self):
fin = io.open('./fixture/files/expand.1.json', 'r', encoding='utf-8')
fout = io.open('./fixture/files/tmp.output.1.csv', 'wb')
dump_excel(fin, fout, DumpCSV)
fin.close()
fout.close()
output = io.open('./fixture/files/output.1.csv', 'r', encoding='utf-8')
fout = io.open('./fixture/files/tmp.output.1.csv', 'r', encoding='utf-8')
self.assertEqual(output.read(), fout.read())
output.close()
fout.close()
def test_dumpexcel_csv_with_sort(self):
fin = io.open('./fixture/files/expand.1.json', 'r', encoding='utf-8')
fout = io.open('./fixture/files/tmp.output.1.sort.csv', 'wb')
dump_excel(fin, fout, DumpCSV, sort_type=True)
fin.close()
fout.close()
output = io.open('./fixture/files/output.1.sort.csv', 'r', encoding='utf-8')
fout = io.open('./fixture/files/tmp.output.1.sort.csv', 'r', encoding='utf-8')
self.assertEqual(output.read(), fout.read())
output.close()
fout.close()
def test_dumpcexcel_xls(self):
fin = io.open('./fixture/files/expand.1.json', 'r', encoding='utf-8')
fout = io.open('./fixture/files/tmp.output.1.xls', 'wb')
dump_excel(fin, fout, DumpXLS)
fin.close()
fout.close()
def test_dump_csv_with_non_ascii(self):
fin = io.open('./fixture/files/expand.2.json', 'r', encoding='utf-8')
fout = io.open('./fixture/files/tmp.output.2.csv', 'wb')
dump_excel(fin, fout, DumpCSV)
fin.close()
fout.close()
def test_dump_xls_with_non_ascii(self):
fin = io.open('./fixture/files/expand.2.json', 'r', encoding='utf-8')
fout = io.open('./fixture/files/tmp.output.2.xls', 'wb')
dump_excel(fin, fout, DumpXLS)
fin.close()
fout.close()
def test_dump_xls_with_dict(self):
fin = io.StringIO(u'{"a": {}}\n')
fout = io.BytesIO()
dump_excel(fin, fout, DumpXLS)
fin.close()
fout.close()
def test_dump_excel_with_error(self):
with self.assertRaises(ValueError):
dump_excel(None, None, None)
| 28.511628
| 86
| 0.600734
| 339
| 2,452
| 4.241888
| 0.185841
| 0.058414
| 0.126565
| 0.175243
| 0.744089
| 0.744089
| 0.744089
| 0.726704
| 0.723922
| 0.709319
| 0
| 0.016869
| 0.226346
| 2,452
| 85
| 87
| 28.847059
| 0.74117
| 0.021615
| 0
| 0.509091
| 0
| 0
| 0.215121
| 0.183793
| 0
| 0
| 0
| 0.011765
| 0.054545
| 1
| 0.127273
| false
| 0
| 0.090909
| 0
| 0.236364
| 0
| 0
| 0
| 0
| null | 0
| 0
| 1
| 0
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
e44ec29c928ee7ae826383e6064721f53681b75a
| 27,549
|
py
|
Python
|
sdk/python/pulumi_rancher2/role_tempalte.py
|
pulumi/pulumi-rancher2
|
7a98af8cf598b711084a7f46c0fe71b43ed7a8ac
|
[
"ECL-2.0",
"Apache-2.0"
] | 3
|
2020-03-23T15:59:11.000Z
|
2021-01-29T00:37:32.000Z
|
sdk/python/pulumi_rancher2/role_tempalte.py
|
pulumi/pulumi-rancher2
|
7a98af8cf598b711084a7f46c0fe71b43ed7a8ac
|
[
"ECL-2.0",
"Apache-2.0"
] | 76
|
2020-01-16T20:00:25.000Z
|
2022-03-31T20:30:08.000Z
|
sdk/python/pulumi_rancher2/role_tempalte.py
|
pulumi/pulumi-rancher2
|
7a98af8cf598b711084a7f46c0fe71b43ed7a8ac
|
[
"ECL-2.0",
"Apache-2.0"
] | 2
|
2020-03-27T17:39:59.000Z
|
2020-11-24T23:09:24.000Z
|
# coding=utf-8
# *** WARNING: this file was generated by the Pulumi Terraform Bridge (tfgen) Tool. ***
# *** Do not edit by hand unless you're certain you know what you are doing! ***
import warnings
import pulumi
import pulumi.runtime
from typing import Any, Mapping, Optional, Sequence, Union, overload
from . import _utilities
from . import outputs
from ._inputs import *
__all__ = ['RoleTempalteArgs', 'RoleTempalte']
@pulumi.input_type
class RoleTempalteArgs:
def __init__(__self__, *,
administrative: Optional[pulumi.Input[bool]] = None,
annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None,
context: Optional[pulumi.Input[str]] = None,
default_role: Optional[pulumi.Input[bool]] = None,
description: Optional[pulumi.Input[str]] = None,
external: Optional[pulumi.Input[bool]] = None,
hidden: Optional[pulumi.Input[bool]] = None,
labels: Optional[pulumi.Input[Mapping[str, Any]]] = None,
locked: Optional[pulumi.Input[bool]] = None,
name: Optional[pulumi.Input[str]] = None,
role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
rules: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]] = None):
"""
The set of arguments for constructing a RoleTempalte resource.
:param pulumi.Input[bool] administrative: Administrative role template
:param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource
:param pulumi.Input[str] context: Context role template
:param pulumi.Input[bool] default_role: Default role template for new created cluster or project
:param pulumi.Input[str] description: Role template policy description
:param pulumi.Input[bool] external: External role template
:param pulumi.Input[bool] hidden: Hidden role template
:param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource
:param pulumi.Input[bool] locked: Locked role template
:param pulumi.Input[str] name: Role template policy name
:param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs
:param pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]] rules: Role template policy rules
"""
if administrative is not None:
pulumi.set(__self__, "administrative", administrative)
if annotations is not None:
pulumi.set(__self__, "annotations", annotations)
if context is not None:
pulumi.set(__self__, "context", context)
if default_role is not None:
pulumi.set(__self__, "default_role", default_role)
if description is not None:
pulumi.set(__self__, "description", description)
if external is not None:
pulumi.set(__self__, "external", external)
if hidden is not None:
pulumi.set(__self__, "hidden", hidden)
if labels is not None:
pulumi.set(__self__, "labels", labels)
if locked is not None:
pulumi.set(__self__, "locked", locked)
if name is not None:
pulumi.set(__self__, "name", name)
if role_template_ids is not None:
pulumi.set(__self__, "role_template_ids", role_template_ids)
if rules is not None:
pulumi.set(__self__, "rules", rules)
@property
@pulumi.getter
def administrative(self) -> Optional[pulumi.Input[bool]]:
"""
Administrative role template
"""
return pulumi.get(self, "administrative")
@administrative.setter
def administrative(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "administrative", value)
@property
@pulumi.getter
def annotations(self) -> Optional[pulumi.Input[Mapping[str, Any]]]:
"""
Annotations of the resource
"""
return pulumi.get(self, "annotations")
@annotations.setter
def annotations(self, value: Optional[pulumi.Input[Mapping[str, Any]]]):
pulumi.set(self, "annotations", value)
@property
@pulumi.getter
def context(self) -> Optional[pulumi.Input[str]]:
"""
Context role template
"""
return pulumi.get(self, "context")
@context.setter
def context(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "context", value)
@property
@pulumi.getter(name="defaultRole")
def default_role(self) -> Optional[pulumi.Input[bool]]:
"""
Default role template for new created cluster or project
"""
return pulumi.get(self, "default_role")
@default_role.setter
def default_role(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "default_role", value)
@property
@pulumi.getter
def description(self) -> Optional[pulumi.Input[str]]:
"""
Role template policy description
"""
return pulumi.get(self, "description")
@description.setter
def description(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "description", value)
@property
@pulumi.getter
def external(self) -> Optional[pulumi.Input[bool]]:
"""
External role template
"""
return pulumi.get(self, "external")
@external.setter
def external(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "external", value)
@property
@pulumi.getter
def hidden(self) -> Optional[pulumi.Input[bool]]:
"""
Hidden role template
"""
return pulumi.get(self, "hidden")
@hidden.setter
def hidden(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "hidden", value)
@property
@pulumi.getter
def labels(self) -> Optional[pulumi.Input[Mapping[str, Any]]]:
"""
Labels of the resource
"""
return pulumi.get(self, "labels")
@labels.setter
def labels(self, value: Optional[pulumi.Input[Mapping[str, Any]]]):
pulumi.set(self, "labels", value)
@property
@pulumi.getter
def locked(self) -> Optional[pulumi.Input[bool]]:
"""
Locked role template
"""
return pulumi.get(self, "locked")
@locked.setter
def locked(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "locked", value)
@property
@pulumi.getter
def name(self) -> Optional[pulumi.Input[str]]:
"""
Role template policy name
"""
return pulumi.get(self, "name")
@name.setter
def name(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "name", value)
@property
@pulumi.getter(name="roleTemplateIds")
def role_template_ids(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]:
"""
Inherit role template IDs
"""
return pulumi.get(self, "role_template_ids")
@role_template_ids.setter
def role_template_ids(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]):
pulumi.set(self, "role_template_ids", value)
@property
@pulumi.getter
def rules(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]:
"""
Role template policy rules
"""
return pulumi.get(self, "rules")
@rules.setter
def rules(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]):
pulumi.set(self, "rules", value)
@pulumi.input_type
class _RoleTempalteState:
def __init__(__self__, *,
administrative: Optional[pulumi.Input[bool]] = None,
annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None,
builtin: Optional[pulumi.Input[bool]] = None,
context: Optional[pulumi.Input[str]] = None,
default_role: Optional[pulumi.Input[bool]] = None,
description: Optional[pulumi.Input[str]] = None,
external: Optional[pulumi.Input[bool]] = None,
hidden: Optional[pulumi.Input[bool]] = None,
labels: Optional[pulumi.Input[Mapping[str, Any]]] = None,
locked: Optional[pulumi.Input[bool]] = None,
name: Optional[pulumi.Input[str]] = None,
role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
rules: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]] = None):
"""
Input properties used for looking up and filtering RoleTempalte resources.
:param pulumi.Input[bool] administrative: Administrative role template
:param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource
:param pulumi.Input[bool] builtin: Builtin role template
:param pulumi.Input[str] context: Context role template
:param pulumi.Input[bool] default_role: Default role template for new created cluster or project
:param pulumi.Input[str] description: Role template policy description
:param pulumi.Input[bool] external: External role template
:param pulumi.Input[bool] hidden: Hidden role template
:param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource
:param pulumi.Input[bool] locked: Locked role template
:param pulumi.Input[str] name: Role template policy name
:param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs
:param pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]] rules: Role template policy rules
"""
if administrative is not None:
pulumi.set(__self__, "administrative", administrative)
if annotations is not None:
pulumi.set(__self__, "annotations", annotations)
if builtin is not None:
pulumi.set(__self__, "builtin", builtin)
if context is not None:
pulumi.set(__self__, "context", context)
if default_role is not None:
pulumi.set(__self__, "default_role", default_role)
if description is not None:
pulumi.set(__self__, "description", description)
if external is not None:
pulumi.set(__self__, "external", external)
if hidden is not None:
pulumi.set(__self__, "hidden", hidden)
if labels is not None:
pulumi.set(__self__, "labels", labels)
if locked is not None:
pulumi.set(__self__, "locked", locked)
if name is not None:
pulumi.set(__self__, "name", name)
if role_template_ids is not None:
pulumi.set(__self__, "role_template_ids", role_template_ids)
if rules is not None:
pulumi.set(__self__, "rules", rules)
@property
@pulumi.getter
def administrative(self) -> Optional[pulumi.Input[bool]]:
"""
Administrative role template
"""
return pulumi.get(self, "administrative")
@administrative.setter
def administrative(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "administrative", value)
@property
@pulumi.getter
def annotations(self) -> Optional[pulumi.Input[Mapping[str, Any]]]:
"""
Annotations of the resource
"""
return pulumi.get(self, "annotations")
@annotations.setter
def annotations(self, value: Optional[pulumi.Input[Mapping[str, Any]]]):
pulumi.set(self, "annotations", value)
@property
@pulumi.getter
def builtin(self) -> Optional[pulumi.Input[bool]]:
"""
Builtin role template
"""
return pulumi.get(self, "builtin")
@builtin.setter
def builtin(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "builtin", value)
@property
@pulumi.getter
def context(self) -> Optional[pulumi.Input[str]]:
"""
Context role template
"""
return pulumi.get(self, "context")
@context.setter
def context(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "context", value)
@property
@pulumi.getter(name="defaultRole")
def default_role(self) -> Optional[pulumi.Input[bool]]:
"""
Default role template for new created cluster or project
"""
return pulumi.get(self, "default_role")
@default_role.setter
def default_role(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "default_role", value)
@property
@pulumi.getter
def description(self) -> Optional[pulumi.Input[str]]:
"""
Role template policy description
"""
return pulumi.get(self, "description")
@description.setter
def description(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "description", value)
@property
@pulumi.getter
def external(self) -> Optional[pulumi.Input[bool]]:
"""
External role template
"""
return pulumi.get(self, "external")
@external.setter
def external(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "external", value)
@property
@pulumi.getter
def hidden(self) -> Optional[pulumi.Input[bool]]:
"""
Hidden role template
"""
return pulumi.get(self, "hidden")
@hidden.setter
def hidden(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "hidden", value)
@property
@pulumi.getter
def labels(self) -> Optional[pulumi.Input[Mapping[str, Any]]]:
"""
Labels of the resource
"""
return pulumi.get(self, "labels")
@labels.setter
def labels(self, value: Optional[pulumi.Input[Mapping[str, Any]]]):
pulumi.set(self, "labels", value)
@property
@pulumi.getter
def locked(self) -> Optional[pulumi.Input[bool]]:
"""
Locked role template
"""
return pulumi.get(self, "locked")
@locked.setter
def locked(self, value: Optional[pulumi.Input[bool]]):
pulumi.set(self, "locked", value)
@property
@pulumi.getter
def name(self) -> Optional[pulumi.Input[str]]:
"""
Role template policy name
"""
return pulumi.get(self, "name")
@name.setter
def name(self, value: Optional[pulumi.Input[str]]):
pulumi.set(self, "name", value)
@property
@pulumi.getter(name="roleTemplateIds")
def role_template_ids(self) -> Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]:
"""
Inherit role template IDs
"""
return pulumi.get(self, "role_template_ids")
@role_template_ids.setter
def role_template_ids(self, value: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]]):
pulumi.set(self, "role_template_ids", value)
@property
@pulumi.getter
def rules(self) -> Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]:
"""
Role template policy rules
"""
return pulumi.get(self, "rules")
@rules.setter
def rules(self, value: Optional[pulumi.Input[Sequence[pulumi.Input['RoleTempalteRuleArgs']]]]):
pulumi.set(self, "rules", value)
warnings.warn("""rancher2.RoleTempalte has been deprecated in favor of rancher2.RoleTemplate""", DeprecationWarning)
class RoleTempalte(pulumi.CustomResource):
warnings.warn("""rancher2.RoleTempalte has been deprecated in favor of rancher2.RoleTemplate""", DeprecationWarning)
@overload
def __init__(__self__,
resource_name: str,
opts: Optional[pulumi.ResourceOptions] = None,
administrative: Optional[pulumi.Input[bool]] = None,
annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None,
context: Optional[pulumi.Input[str]] = None,
default_role: Optional[pulumi.Input[bool]] = None,
description: Optional[pulumi.Input[str]] = None,
external: Optional[pulumi.Input[bool]] = None,
hidden: Optional[pulumi.Input[bool]] = None,
labels: Optional[pulumi.Input[Mapping[str, Any]]] = None,
locked: Optional[pulumi.Input[bool]] = None,
name: Optional[pulumi.Input[str]] = None,
role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
rules: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]]] = None,
__props__=None):
"""
Create a RoleTempalte resource with the given unique name, props, and options.
:param str resource_name: The name of the resource.
:param pulumi.ResourceOptions opts: Options for the resource.
:param pulumi.Input[bool] administrative: Administrative role template
:param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource
:param pulumi.Input[str] context: Context role template
:param pulumi.Input[bool] default_role: Default role template for new created cluster or project
:param pulumi.Input[str] description: Role template policy description
:param pulumi.Input[bool] external: External role template
:param pulumi.Input[bool] hidden: Hidden role template
:param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource
:param pulumi.Input[bool] locked: Locked role template
:param pulumi.Input[str] name: Role template policy name
:param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]] rules: Role template policy rules
"""
...
@overload
def __init__(__self__,
resource_name: str,
args: Optional[RoleTempalteArgs] = None,
opts: Optional[pulumi.ResourceOptions] = None):
"""
Create a RoleTempalte resource with the given unique name, props, and options.
:param str resource_name: The name of the resource.
:param RoleTempalteArgs args: The arguments to use to populate this resource's properties.
:param pulumi.ResourceOptions opts: Options for the resource.
"""
...
def __init__(__self__, resource_name: str, *args, **kwargs):
resource_args, opts = _utilities.get_resource_args_opts(RoleTempalteArgs, pulumi.ResourceOptions, *args, **kwargs)
if resource_args is not None:
__self__._internal_init(resource_name, opts, **resource_args.__dict__)
else:
__self__._internal_init(resource_name, *args, **kwargs)
def _internal_init(__self__,
resource_name: str,
opts: Optional[pulumi.ResourceOptions] = None,
administrative: Optional[pulumi.Input[bool]] = None,
annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None,
context: Optional[pulumi.Input[str]] = None,
default_role: Optional[pulumi.Input[bool]] = None,
description: Optional[pulumi.Input[str]] = None,
external: Optional[pulumi.Input[bool]] = None,
hidden: Optional[pulumi.Input[bool]] = None,
labels: Optional[pulumi.Input[Mapping[str, Any]]] = None,
locked: Optional[pulumi.Input[bool]] = None,
name: Optional[pulumi.Input[str]] = None,
role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
rules: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]]] = None,
__props__=None):
pulumi.log.warn("""RoleTempalte is deprecated: rancher2.RoleTempalte has been deprecated in favor of rancher2.RoleTemplate""")
if opts is None:
opts = pulumi.ResourceOptions()
if not isinstance(opts, pulumi.ResourceOptions):
raise TypeError('Expected resource options to be a ResourceOptions instance')
if opts.version is None:
opts.version = _utilities.get_version()
if opts.id is None:
if __props__ is not None:
raise TypeError('__props__ is only valid when passed in combination with a valid opts.id to get an existing resource')
__props__ = RoleTempalteArgs.__new__(RoleTempalteArgs)
__props__.__dict__["administrative"] = administrative
__props__.__dict__["annotations"] = annotations
__props__.__dict__["context"] = context
__props__.__dict__["default_role"] = default_role
__props__.__dict__["description"] = description
__props__.__dict__["external"] = external
__props__.__dict__["hidden"] = hidden
__props__.__dict__["labels"] = labels
__props__.__dict__["locked"] = locked
__props__.__dict__["name"] = name
__props__.__dict__["role_template_ids"] = role_template_ids
__props__.__dict__["rules"] = rules
__props__.__dict__["builtin"] = None
super(RoleTempalte, __self__).__init__(
'rancher2:index/roleTempalte:RoleTempalte',
resource_name,
__props__,
opts)
@staticmethod
def get(resource_name: str,
id: pulumi.Input[str],
opts: Optional[pulumi.ResourceOptions] = None,
administrative: Optional[pulumi.Input[bool]] = None,
annotations: Optional[pulumi.Input[Mapping[str, Any]]] = None,
builtin: Optional[pulumi.Input[bool]] = None,
context: Optional[pulumi.Input[str]] = None,
default_role: Optional[pulumi.Input[bool]] = None,
description: Optional[pulumi.Input[str]] = None,
external: Optional[pulumi.Input[bool]] = None,
hidden: Optional[pulumi.Input[bool]] = None,
labels: Optional[pulumi.Input[Mapping[str, Any]]] = None,
locked: Optional[pulumi.Input[bool]] = None,
name: Optional[pulumi.Input[str]] = None,
role_template_ids: Optional[pulumi.Input[Sequence[pulumi.Input[str]]]] = None,
rules: Optional[pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]]] = None) -> 'RoleTempalte':
"""
Get an existing RoleTempalte resource's state with the given name, id, and optional extra
properties used to qualify the lookup.
:param str resource_name: The unique name of the resulting resource.
:param pulumi.Input[str] id: The unique provider ID of the resource to lookup.
:param pulumi.ResourceOptions opts: Options for the resource.
:param pulumi.Input[bool] administrative: Administrative role template
:param pulumi.Input[Mapping[str, Any]] annotations: Annotations of the resource
:param pulumi.Input[bool] builtin: Builtin role template
:param pulumi.Input[str] context: Context role template
:param pulumi.Input[bool] default_role: Default role template for new created cluster or project
:param pulumi.Input[str] description: Role template policy description
:param pulumi.Input[bool] external: External role template
:param pulumi.Input[bool] hidden: Hidden role template
:param pulumi.Input[Mapping[str, Any]] labels: Labels of the resource
:param pulumi.Input[bool] locked: Locked role template
:param pulumi.Input[str] name: Role template policy name
:param pulumi.Input[Sequence[pulumi.Input[str]]] role_template_ids: Inherit role template IDs
:param pulumi.Input[Sequence[pulumi.Input[pulumi.InputType['RoleTempalteRuleArgs']]]] rules: Role template policy rules
"""
opts = pulumi.ResourceOptions.merge(opts, pulumi.ResourceOptions(id=id))
__props__ = _RoleTempalteState.__new__(_RoleTempalteState)
__props__.__dict__["administrative"] = administrative
__props__.__dict__["annotations"] = annotations
__props__.__dict__["builtin"] = builtin
__props__.__dict__["context"] = context
__props__.__dict__["default_role"] = default_role
__props__.__dict__["description"] = description
__props__.__dict__["external"] = external
__props__.__dict__["hidden"] = hidden
__props__.__dict__["labels"] = labels
__props__.__dict__["locked"] = locked
__props__.__dict__["name"] = name
__props__.__dict__["role_template_ids"] = role_template_ids
__props__.__dict__["rules"] = rules
return RoleTempalte(resource_name, opts=opts, __props__=__props__)
@property
@pulumi.getter
def administrative(self) -> pulumi.Output[Optional[bool]]:
"""
Administrative role template
"""
return pulumi.get(self, "administrative")
@property
@pulumi.getter
def annotations(self) -> pulumi.Output[Mapping[str, Any]]:
"""
Annotations of the resource
"""
return pulumi.get(self, "annotations")
@property
@pulumi.getter
def builtin(self) -> pulumi.Output[bool]:
"""
Builtin role template
"""
return pulumi.get(self, "builtin")
@property
@pulumi.getter
def context(self) -> pulumi.Output[Optional[str]]:
"""
Context role template
"""
return pulumi.get(self, "context")
@property
@pulumi.getter(name="defaultRole")
def default_role(self) -> pulumi.Output[Optional[bool]]:
"""
Default role template for new created cluster or project
"""
return pulumi.get(self, "default_role")
@property
@pulumi.getter
def description(self) -> pulumi.Output[str]:
"""
Role template policy description
"""
return pulumi.get(self, "description")
@property
@pulumi.getter
def external(self) -> pulumi.Output[Optional[bool]]:
"""
External role template
"""
return pulumi.get(self, "external")
@property
@pulumi.getter
def hidden(self) -> pulumi.Output[Optional[bool]]:
"""
Hidden role template
"""
return pulumi.get(self, "hidden")
@property
@pulumi.getter
def labels(self) -> pulumi.Output[Mapping[str, Any]]:
"""
Labels of the resource
"""
return pulumi.get(self, "labels")
@property
@pulumi.getter
def locked(self) -> pulumi.Output[Optional[bool]]:
"""
Locked role template
"""
return pulumi.get(self, "locked")
@property
@pulumi.getter
def name(self) -> pulumi.Output[str]:
"""
Role template policy name
"""
return pulumi.get(self, "name")
@property
@pulumi.getter(name="roleTemplateIds")
def role_template_ids(self) -> pulumi.Output[Sequence[str]]:
"""
Inherit role template IDs
"""
return pulumi.get(self, "role_template_ids")
@property
@pulumi.getter
def rules(self) -> pulumi.Output[Sequence['outputs.RoleTempalteRule']]:
"""
Role template policy rules
"""
return pulumi.get(self, "rules")
| 39.412017
| 134
| 0.629968
| 2,982
| 27,549
| 5.636486
| 0.052985
| 0.125654
| 0.126606
| 0.067051
| 0.89154
| 0.87619
| 0.850547
| 0.843943
| 0.840909
| 0.811221
| 0
| 0.00039
| 0.255581
| 27,549
| 698
| 135
| 39.468481
| 0.819193
| 0.210643
| 0
| 0.850117
| 1
| 0
| 0.087619
| 0.009368
| 0
| 0
| 0
| 0
| 0
| 1
| 0.163934
| false
| 0.002342
| 0.016393
| 0
| 0.278689
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
e466a9a58c7acb613da4c757cadb1c102b9de102
| 120
|
py
|
Python
|
keras/datasets/data_utils.py
|
insdeep/keras
|
616201255b434a224fd83430d89810744a6ebc22
|
[
"MIT"
] | 31
|
2016-09-13T23:14:01.000Z
|
2022-03-04T16:14:39.000Z
|
keras/datasets/data_utils.py
|
insdeep/keras
|
616201255b434a224fd83430d89810744a6ebc22
|
[
"MIT"
] | 2
|
2016-11-29T06:04:40.000Z
|
2020-07-08T16:34:25.000Z
|
keras/datasets/data_utils.py
|
insdeep/keras
|
616201255b434a224fd83430d89810744a6ebc22
|
[
"MIT"
] | 20
|
2016-08-20T06:59:20.000Z
|
2020-05-25T12:27:50.000Z
|
from ..utils.data_utils import *
import warnings
warnings.warn('data_utils has been moved to keras.utils.data_utils.')
| 24
| 69
| 0.791667
| 19
| 120
| 4.842105
| 0.578947
| 0.293478
| 0.304348
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.108333
| 120
| 4
| 70
| 30
| 0.859813
| 0
| 0
| 0
| 0
| 0
| 0.433333
| 0.191667
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0
| 0.666667
| 0
| 0.666667
| 0
| 1
| 0
| 0
| null | 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 1
| 0
| 1
| 0
|
0
| 7
|
e471f3573088b0a393ab6d20447a57a875fcac05
| 2,808
|
py
|
Python
|
test_count_complete_tree_nodes.py
|
jaebradley/leetcode.py
|
64634cc7d0e975ddd163f35acb18cc92960b8eb5
|
[
"MIT"
] | null | null | null |
test_count_complete_tree_nodes.py
|
jaebradley/leetcode.py
|
64634cc7d0e975ddd163f35acb18cc92960b8eb5
|
[
"MIT"
] | 2
|
2019-11-13T19:55:49.000Z
|
2019-11-13T19:55:57.000Z
|
test_count_complete_tree_nodes.py
|
jaebradley/leetcode.py
|
64634cc7d0e975ddd163f35acb18cc92960b8eb5
|
[
"MIT"
] | null | null | null |
from unittest import TestCase
from count_complete_tree_nodes import Solution
from tree_node import TreeNode
class TestCountCompleteTreeNodes(TestCase):
def test_count_single_level_fully_complete_nodes(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
self.assertEqual(3, Solution().countNodes(root))
def test_empty_root(self):
self.assertEqual(0, Solution().countNodes(None))
def test_left_child_only(self):
root = TreeNode(1)
root.left = TreeNode(2)
self.assertEqual(2, Solution().countNodes(root))
def test_three_levels_all_but_right(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
root.left.left = TreeNode(4)
root.left.right = TreeNode(5)
root.right.left = TreeNode(6)
self.assertEqual(6, Solution().countNodes(root))
def test_three_levels_only_left_subtree(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
root.left.left = TreeNode(4)
root.left.right = TreeNode(5)
self.assertEqual(5, Solution().countNodes(root))
def test_three_levels_only_far_left(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
root.left.left = TreeNode(4)
self.assertEqual(4, Solution().countNodes(root))
class TestCountCompleteTreeNodesRecursively(TestCase):
def test_count_single_level_fully_complete_nodes(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
self.assertEqual(3, Solution().countNodesRecursive(root))
def test_empty_root(self):
self.assertEqual(0, Solution().countNodesRecursive(None))
def test_left_child_only(self):
root = TreeNode(1)
root.left = TreeNode(2)
self.assertEqual(2, Solution().countNodesRecursive(root))
def test_three_levels_all_but_right(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
root.left.left = TreeNode(4)
root.left.right = TreeNode(5)
root.right.left = TreeNode(6)
self.assertEqual(6, Solution().countNodesRecursive(root))
def test_three_levels_only_left_subtree(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
root.left.left = TreeNode(4)
root.left.right = TreeNode(5)
self.assertEqual(5, Solution().countNodesRecursive(root))
def test_three_levels_only_far_left(self):
root = TreeNode(1)
root.left = TreeNode(2)
root.right = TreeNode(3)
root.left.left = TreeNode(4)
self.assertEqual(4, Solution().countNodesRecursive(root))
| 33.035294
| 65
| 0.652778
| 344
| 2,808
| 5.165698
| 0.125
| 0.090039
| 0.090039
| 0.095667
| 0.870006
| 0.853686
| 0.853686
| 0.837366
| 0.804727
| 0.804727
| 0
| 0.024242
| 0.236111
| 2,808
| 84
| 66
| 33.428571
| 0.804196
| 0
| 0
| 0.753623
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.173913
| 1
| 0.173913
| false
| 0
| 0.043478
| 0
| 0.246377
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
e47920396644cbd4d5ed7eec0233690f9a8fcbb9
| 306
|
py
|
Python
|
wizsite/util/__init__.py
|
QMasterMoo/wizsite
|
8def7c59131585b12860e02d918ff86c6217ee91
|
[
"MIT"
] | null | null | null |
wizsite/util/__init__.py
|
QMasterMoo/wizsite
|
8def7c59131585b12860e02d918ff86c6217ee91
|
[
"MIT"
] | 1
|
2019-01-12T22:44:19.000Z
|
2019-01-12T22:46:06.000Z
|
wizsite/util/__init__.py
|
QMasterMoo/wizsite
|
8def7c59131585b12860e02d918ff86c6217ee91
|
[
"MIT"
] | null | null | null |
"""
General utility functions.
"""
from wizsite.util.shutdown import shutdown_server
from wizsite.util.password import create_password_str
from wizsite.util.password import verify_password_str
from wizsite.util.password import generate_password_str
from wizsite.util.header import update_header_dict
| 38.25
| 56
| 0.843137
| 42
| 306
| 5.928571
| 0.404762
| 0.220884
| 0.301205
| 0.277108
| 0.542169
| 0.321285
| 0.321285
| 0
| 0
| 0
| 0
| 0
| 0.101307
| 306
| 8
| 57
| 38.25
| 0.905455
| 0.084967
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| true
| 0.6
| 1
| 0
| 1
| 0
| 0
| 0
| 0
| null | 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 1
| 0
| 0
| 0
|
0
| 7
|
e4867e1e4d1a27672e474c9d48a4223a1a46bb88
| 11,583
|
py
|
Python
|
track_model/track_model_test.py
|
QUVA-Lab/lang-tracker
|
6cb3630471765565b6f2d34a160f0cd51d95a082
|
[
"BSD-2-Clause-FreeBSD"
] | 31
|
2017-09-13T13:40:59.000Z
|
2022-01-25T16:55:19.000Z
|
track_model/track_model_test.py
|
zhenyangli/lang-tracker
|
dddd808a22582573ab0a5e4c3dbf0ba054e42d61
|
[
"BSD-3-Clause"
] | 4
|
2017-09-14T01:56:58.000Z
|
2021-01-28T00:58:58.000Z
|
track_model/track_model_test.py
|
QUVA-Lab/lang-tracker
|
6cb3630471765565b6f2d34a160f0cd51d95a082
|
[
"BSD-2-Clause-FreeBSD"
] | 9
|
2017-09-28T03:22:08.000Z
|
2021-01-19T10:56:44.000Z
|
from __future__ import absolute_import, division, print_function
import numpy as np
import caffe
from caffe import layers as L
from caffe import params as P
channel_mean = np.array([123.68, 116.779, 103.939], dtype=np.float32)
###############################################################################
# Helper Methods
###############################################################################
def conv_relu(bottom, nout, ks=3, stride=1, pad=1, bias_term=True, fix_param=False, finetune=False):
if fix_param:
mult = [dict(lr_mult=0, decay_mult=0), dict(lr_mult=0, decay_mult=0)]
conv = L.Convolution(bottom, kernel_size=ks, stride=stride,
num_output=nout, pad=pad, param=mult)
else:
if finetune:
mult = [dict(lr_mult=0.1, decay_mult=1), dict(lr_mult=0.2, decay_mult=0)]
conv = L.Convolution(bottom, kernel_size=ks, stride=stride,
num_output=nout, pad=pad, param=mult)
else:
mult = [dict(lr_mult=1, decay_mult=1), dict(lr_mult=2, decay_mult=0)]
filler = dict(type='xavier')
conv = L.Convolution(bottom, kernel_size=ks, stride=stride,
num_output=nout, pad=pad, bias_term=bias_term,
param=mult, weight_filler=filler)
return conv, L.ReLU(conv, in_place=True)
def conv(bottom, nout, ks=3, stride=1, pad=1, bias_term=True, fix_param=False, finetune=False):
if fix_param:
mult = [dict(lr_mult=0, decay_mult=0), dict(lr_mult=0, decay_mult=0)]
conv = L.Convolution(bottom, kernel_size=ks, stride=stride,
num_output=nout, pad=pad, param=mult)
else:
if finetune:
mult = [dict(lr_mult=0.1, decay_mult=1), dict(lr_mult=0.2, decay_mult=0)]
conv = L.Convolution(bottom, kernel_size=ks, stride=stride,
num_output=nout, pad=pad, param=mult)
else:
mult = [dict(lr_mult=1, decay_mult=1), dict(lr_mult=2, decay_mult=0)]
filler = dict(type='xavier')
conv = L.Convolution(bottom, kernel_size=ks, stride=stride,
num_output=nout, pad=pad, bias_term=bias_term,
param=mult, weight_filler=filler)
return conv
def max_pool(bottom, ks=2, stride=2):
return L.Pooling(bottom, pool=P.Pooling.MAX, kernel_size=ks, stride=stride)
################################################################################
# Model Generation
###############################################################################
def generate_conv_features(split, config):
n = caffe.NetSpec()
dataset = config.dataset
batch_size = config.N
mode_str = str(dict(dataset=dataset, split=split, batch_size=batch_size))
n.image, n.label = L.Python(module=config.data_provider,
layer=config.data_provider_layer_1,
param_str=mode_str,
ntop=2)
# the base net (VGG-16)
n.conv1_1, n.relu1_1 = conv_relu(n.image, 64,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv1_2, n.relu1_2 = conv_relu(n.relu1_1, 64,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.pool1 = max_pool(n.relu1_2)
n.conv2_1, n.relu2_1 = conv_relu(n.pool1, 128,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv2_2, n.relu2_2 = conv_relu(n.relu2_1, 128,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.pool2 = max_pool(n.relu2_2)
n.conv3_1, n.relu3_1 = conv_relu(n.pool2, 256,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv3_2, n.relu3_2 = conv_relu(n.relu3_1, 256,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv3_3, n.relu3_3 = conv_relu(n.relu3_2, 256,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.pool3 = max_pool(n.relu3_3)
# spatial L2 norm
n.pool3_lrn = L.LRN(n.pool3, local_size=513, alpha=513, beta=0.5, k=1e-16)
n.conv4_1, n.relu4_1 = conv_relu(n.pool3, 512,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv4_2, n.relu4_2 = conv_relu(n.relu4_1, 512,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv4_3, n.relu4_3 = conv_relu(n.relu4_2, 512,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
# spatial L2 norm
n.relu4_3_lrn = L.LRN(n.relu4_3, local_size=1025, alpha=1025, beta=0.5, k=1e-16)
#n.pool4 = max_pool(n.relu4_3)
#n.conv5_1, n.relu5_1 = conv_relu(n.pool4, 512,
# fix_param=config.fix_vgg,
# finetune=(not config.fix_vgg))
#n.conv5_2, n.relu5_2 = conv_relu(n.relu5_1, 512,
# fix_param=config.fix_vgg,
# finetune=(not config.fix_vgg))
#n.conv5_3, n.relu5_3 = conv_relu(n.relu5_2, 512,
# fix_param=config.fix_vgg,
# finetune=(not config.fix_vgg))
# upsampling feature map
#n.relu5_3_upsampling = L.Deconvolution(n.relu5_3,
# convolution_param=dict(num_output=512,
# group=512,
# kernel_size=4,
# stride=2,
# pad=1,
# bias_term=False,
# weight_filler=dict(type='bilinear')),
# param=[dict(lr_mult=0, decay_mult=0)])
# spatial L2 norm
#n.relu5_3_lrn = L.LRN(n.relu5_3_upsampling, local_size=1025, alpha=1025, beta=0.5, k=1e-16)
# concat all skip features
#n.feat_all = n.relu4_3_lrn
n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, concat_param=dict(axis=1))
#n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, n.relu5_3_lrn, concat_param=dict(axis=1))
return n.to_proto()
def generate_conv_scores(split, config):
n = caffe.NetSpec()
dataset = config.dataset
batch_size = config.N
mode_str = str(dict(dataset=dataset, split=split, batch_size=batch_size))
n.image, n.label = L.Python(module=config.data_provider,
layer=config.data_provider_layer_2,
param_str=mode_str,
ntop=2)
# the base net (VGG-16)
n.conv1_1, n.relu1_1 = conv_relu(n.image, 64,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv1_2, n.relu1_2 = conv_relu(n.relu1_1, 64,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.pool1 = max_pool(n.relu1_2)
n.conv2_1, n.relu2_1 = conv_relu(n.pool1, 128,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv2_2, n.relu2_2 = conv_relu(n.relu2_1, 128,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.pool2 = max_pool(n.relu2_2)
n.conv3_1, n.relu3_1 = conv_relu(n.pool2, 256,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv3_2, n.relu3_2 = conv_relu(n.relu3_1, 256,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv3_3, n.relu3_3 = conv_relu(n.relu3_2, 256,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.pool3 = max_pool(n.relu3_3)
# spatial L2 norm
n.pool3_lrn = L.LRN(n.pool3, local_size=513, alpha=513, beta=0.5, k=1e-16)
n.conv4_1, n.relu4_1 = conv_relu(n.pool3, 512,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv4_2, n.relu4_2 = conv_relu(n.relu4_1, 512,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
n.conv4_3, n.relu4_3 = conv_relu(n.relu4_2, 512,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
# spatial L2 norm
n.relu4_3_lrn = L.LRN(n.relu4_3, local_size=1025, alpha=1025, beta=0.5, k=1e-16)
#n.pool4 = max_pool(n.relu4_3)
#n.conv5_1, n.relu5_1 = conv_relu(n.pool4, 512,
# fix_param=config.fix_vgg,
# finetune=(not config.fix_vgg))
#n.conv5_2, n.relu5_2 = conv_relu(n.relu5_1, 512,
# fix_param=config.fix_vgg,
# finetune=(not config.fix_vgg))
#n.conv5_3, n.relu5_3 = conv_relu(n.relu5_2, 512,
# fix_param=config.fix_vgg,
# finetune=(not config.fix_vgg))
# upsampling feature map
#n.relu5_3_upsampling = L.Deconvolution(n.relu5_3,
# convolution_param=dict(num_output=512,
# group=512,
# kernel_size=4,
# stride=2,
# pad=1,
# bias_term=False,
# weight_filler=dict(type='bilinear')),
# param=[dict(lr_mult=0, decay_mult=0)])
# spatial L2 norm
#n.relu5_3_lrn = L.LRN(n.relu5_3_upsampling, local_size=1025, alpha=1025, beta=0.5, k=1e-16)
# concat all skip features
#n.feat_all = n.relu4_3_lrn
n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, concat_param=dict(axis=1))
#n.feat_all = L.Concat(n.pool3_lrn, n.relu4_3_lrn, n.relu5_3_lrn, concat_param=dict(axis=1))
# dyn conv / implement as normal conv during test
n.scores = conv(n.feat_all, 1,
ks=11, stride=1, pad=5,
bias_term=False,
fix_param=config.fix_vgg,
finetune=(not config.fix_vgg))
return n.to_proto()
| 49.712446
| 104
| 0.479323
| 1,427
| 11,583
| 3.64541
| 0.101612
| 0.093426
| 0.124567
| 0.088235
| 0.91138
| 0.906767
| 0.906767
| 0.906767
| 0.906767
| 0.906767
| 0
| 0.066295
| 0.395752
| 11,583
| 232
| 105
| 49.926724
| 0.676954
| 0.270483
| 0
| 0.863309
| 0
| 0
| 0.001487
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.035971
| false
| 0
| 0.035971
| 0.007194
| 0.107914
| 0.007194
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 7
|
9036c109efdcfbd1cf142da8c3e24ff95c14ef67
| 175
|
py
|
Python
|
password_reset/forms.py
|
Sahil1515/VeriListo
|
7488df770196dc416bf5a5ef0ff29055d0154f74
|
[
"MIT"
] | null | null | null |
password_reset/forms.py
|
Sahil1515/VeriListo
|
7488df770196dc416bf5a5ef0ff29055d0154f74
|
[
"MIT"
] | null | null | null |
password_reset/forms.py
|
Sahil1515/VeriListo
|
7488df770196dc416bf5a5ef0ff29055d0154f74
|
[
"MIT"
] | null | null | null |
from django import forms
from django import forms
class password_reset(forms.Form):
email=forms.CharField(widget=forms.EmailInput(attrs={'class':'form-control'}))
| 19.444444
| 82
| 0.748571
| 23
| 175
| 5.652174
| 0.608696
| 0.153846
| 0.246154
| 0.323077
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0.131429
| 175
| 9
| 83
| 19.444444
| 0.855263
| 0
| 0
| 0.5
| 0
| 0
| 0.097701
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| false
| 0.25
| 0.5
| 0
| 1
| 0
| 1
| 0
| 0
| null | 0
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 1
| 0
|
0
| 7
|
5f6fbe161c3c6df5bc5b128110288dac79d681a0
| 22,696
|
py
|
Python
|
gosling/schema/mixins.py
|
gosling-lang/gos
|
0099d51e03b1e27aba5fa7554770eb27078716ed
|
[
"MIT"
] | 32
|
2021-09-08T18:18:49.000Z
|
2022-02-22T00:27:02.000Z
|
gosling/schema/mixins.py
|
gosling-lang/gos
|
0099d51e03b1e27aba5fa7554770eb27078716ed
|
[
"MIT"
] | 18
|
2021-09-08T16:18:09.000Z
|
2022-03-25T19:25:28.000Z
|
gosling/schema/mixins.py
|
manzt/ipygosling
|
0099d51e03b1e27aba5fa7554770eb27078716ed
|
[
"MIT"
] | 2
|
2022-02-18T13:43:55.000Z
|
2022-03-11T17:49:41.000Z
|
# The contents of this file are automatically written by
# tools/generate_schema_wrapper.py. Do not modify directly.
from . import core
from gosling.schemapi import Undefined
from typing import TypeVar
T = TypeVar('T')
class MarkMethodMixin(object):
"""A mixin class that defines mark methods"""
def mark_point(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'point'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "point"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_line(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'line'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "line"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_area(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'area'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "area"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_bar(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'bar'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "bar"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_rect(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'rect'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "rect"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_text(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'text'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "text"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_withinLink(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'withinLink'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "withinLink"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_betweenLink(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined,
dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined,
inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined,
linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined,
textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined,
textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'betweenLink'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "betweenLink"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_rule(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'rule'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "rule"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_triangleLeft(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined,
dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined,
inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined,
linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined,
textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined,
textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'triangleLeft'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "triangleLeft"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_triangleRight(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined,
dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined,
inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined,
linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined,
textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined,
textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'triangleRight'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "triangleRight"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_triangleBottom(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined,
dashed=Undefined, dx=Undefined, dy=Undefined, enableSmoothPath=Undefined,
inlineLegend=Undefined, legendTitle=Undefined, linePattern=Undefined,
linkConnectionType=Undefined, outline=Undefined, outlineWidth=Undefined,
textAnchor=Undefined, textFontSize=Undefined, textFontWeight=Undefined,
textStroke=Undefined, textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'triangleBottom'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "triangleBottom"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_brush(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'brush'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "brush"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
def mark_header(self: T, align=Undefined, background=Undefined, backgroundOpacity=Undefined,
bazierLink=Undefined, circularLink=Undefined, curve=Undefined, dashed=Undefined,
dx=Undefined, dy=Undefined, enableSmoothPath=Undefined, inlineLegend=Undefined,
legendTitle=Undefined, linePattern=Undefined, linkConnectionType=Undefined,
outline=Undefined, outlineWidth=Undefined, textAnchor=Undefined,
textFontSize=Undefined, textFontWeight=Undefined, textStroke=Undefined,
textStrokeWidth=Undefined, **kwds) -> T:
"""Set the track's mark to 'header'
For information on additional arguments, see :class:`Style`
"""
kwds = dict(align=align, background=background, backgroundOpacity=backgroundOpacity,
bazierLink=bazierLink, circularLink=circularLink, curve=curve, dashed=dashed, dx=dx,
dy=dy, enableSmoothPath=enableSmoothPath, inlineLegend=inlineLegend,
legendTitle=legendTitle, linePattern=linePattern,
linkConnectionType=linkConnectionType, outline=outline, outlineWidth=outlineWidth,
textAnchor=textAnchor, textFontSize=textFontSize, textFontWeight=textFontWeight,
textStroke=textStroke, textStrokeWidth=textStrokeWidth, **kwds)
copy = self.copy()
copy.mark = "header"
if any(val is not Undefined for val in kwds.values()):
copy.style = core.Style(**kwds)
return copy
| 65.595376
| 104
| 0.657517
| 1,905
| 22,696
| 7.825197
| 0.049344
| 0.016905
| 0.009392
| 0.017844
| 0.964044
| 0.964044
| 0.964044
| 0.964044
| 0.964044
| 0.964044
| 0
| 0
| 0.259473
| 22,696
| 346
| 105
| 65.595376
| 0.886952
| 0.065386
| 0
| 0.878229
| 1
| 0
| 0.004798
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 0.051661
| false
| 0
| 0.01107
| 0
| 0.118081
| 0
| 0
| 0
| 0
| null | 0
| 0
| 0
| 1
| 1
| 1
| 1
| 1
| 1
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 1
| 1
| 0
| 0
| 0
| null | 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
| 0
|
0
| 8
|
Subsets and Splits
No community queries yet
The top public SQL queries from the community will appear here once available.